Você está na página 1de 97

O QUE É TI?

O que é a tecnologia da informação? 


A tecnologia da informação transformou 
completamente sua vida de maneiras que você nem percebe. 
Graças à TI, podemos comunicar grandes quantidades de informações para pessoas e empresas
de todo o mundo em um piscar de olhos. 
Os computadores estão por trás de tudo, desde as calculadoras até os equipamentos médicos, 
os complexos sistemas de satélites e a mesa de negociação de Wall Street. 
Eles são ferramentas poderosas e valiosas que ajudam as pessoas 
a fazerem seu trabalho e permite que nos conectemos uns aos outros. 
Então, o que é exatamente a tecnologia da informação? 
A TI é essencialmente o uso da tecnologia digital, 
como os computadores e a internet, 
para armazenar e processar dados, tornando-os informações úteis. 
A indústria da TI refere-se à abrangência de todos os trabalhos 
e recursos relacionados às tecnologias da computação dentro da sociedade, 
e há muitos tipos diferentes de trabalhos nessa área, 
desde engenheiros de rede que garantem a comunicação adequada entre os computadores, 
até os técnicos de hardware que substituem e consertam componentes, 
e a equipe de suporte de desktop que garante 
que os usuários finais consigam usar o software corretamente. 
Mas a TI não cuida apenas da construção de computadores e do uso da internet, 
o principal são as pessoas. 
Elas são o corpo e a alma do trabalho de suporte em TI. 
De que adianta tecnologia ou as informações se as pessoas 
não puderem usar a tecnologia ou dar sentido às informações? 
A TI ajuda as pessoas a resolverem problemas significativos usando a tecnologia, 
é por isso que você vê suas influências na educação, medicina, 
jornalismo, engenharia, transporte, entretenimento, 
ou em qualquer indústria do planeta. 
A TI muda o mundo pelo meios que usamos para colaborarmos, 
compartilharmos e criarmos juntos. 
A TI tornou-se uma ferramenta tão vital na sociedade moderna que as pessoas 
e as empresas sem acesso à TI estão em desvantagem. 
As habilidades em TI estão se tornando necessárias para o dia a dia, 
como encontrar emprego, obter formação e procurar informações de saúde. 
Talvez você seja de uma comunidade onde não havia internet, 
ou você não tinha meios para ter 
um computador veloz e teve que usar um na escola ou na biblioteca. 
Há muitas razões sociais e econômicas pelas quais 
algumas pessoas possuem habilidades digitais e outras não. 
Há uma crescente desigualdade conhecida como divisão digital. 
As pessoas sem habilidades digitais estão ficando para trás. 
Mas pessoas como você são a verdadeira solução para reduzir essa divisão digital. 
A superação da divisão digital 
não envolve apenas confrontar e entender 
a combinação de fatores socioeconômicos que moldam nossa experiência, 
mas também envolve ajudar os outros a confrontar e a entender essas experiências. 
Ao entrar na área de TI, você ajudará a atender as pessoas de sua comunidade 
ou sua empresa e talvez possa até inspirar uma nova geração de pioneiros em TI. 
Quando penso em resolver a divisão digital, 
só consigo pensar em todas as oportunidades e avanços que podem trazer 
as pessoas das mais diversas origens e perspectivas na indústria. 
Ao trazer mais negros, mais mulheres, 
mais pessoas de outras etnias para as áreas de TI, 
somos obrigados a ver novas ideias e produtos exclusivos 
que sequer pensaríamos que beneficiariam a todos.

ENTÃO, COMO É O TRABALHO COTIDIANO DE QUEM TRABALHA NO SUPORTE DE TI? 

 
Bem, varia muito se você faz essa função de forma presencial ou remota, 
se dá suporte em uma pequena empresa ou em uma empresa de grande porte. 
E não existe esse negócio de trabalho cotidiano, porque os quebra-cabeças e os desafios 
são sempre novos e interessantes. 
Mas, em geral, o especialista em suporte de TI garante o funcionamento correto 
dos equipamentos tecnológicos de uma empresa. 
Isso inclui gerenciar, instalar, faz manutenção, solucionar problemas 
e configurar equipamentos de escritório e de computação. 
Este treinamento foi criado para preparar você 
para uma função de nível inicial em suporte de central de chamados de TI. 
Você aprenderá a configurar o computador desktop ou a estação de trabalho 
do usuário, a instalar os aplicativos que as pessoas usam mais. 
Você aprenderá a fazer correções ou solucionar problemas quando algo der errado 
e a colocar em prática medidas para evitar que problemas semelhantes ocorram novamente. 
Não só você vai aprender os aspectos técnicos da resolução de problemas, 
mas você também vai aprender a se comunicar com os usuários para melhor atendê-los.

Do ábaco à máquina analítica


Quando você ouve a palavra computador, 
talvez você pense em um desktop para games cheio de luzes piscando, 
ou talvez você pense em um laptop fino e elegante. 
Esses dispositivos sofisticados não eram o que as pessoas idealizaram quando criaram o computador pela
primeira vez. 
Para simplificar, o computador é um dispositivo que armazena 
e processa dados executando cálculos. 
Antes de termos computadores de verdade, 
o termo computador era usado para se referir a alguém que de fato fazia cálculos. 
Você deve estar pensando que isso é papo de maluco. 
O computador me permite ver as redes sociais, navegar na internet, 
desenhar gráficos, como é possível que ele só faça cálculos? 
Bem, amigos, neste curso, 
vamos aprender como os cálculos do computador são transformados em aplicativos, 
redes sociais, games etc., 
em tudo que você usa todos os dias. 
Mas, para começar, 
vamos aprender sobre a viagem que os computadores fizeram 
desde as primeiras formas de computação conhecidas até os dispositivos que você conhece e adora hoje. 
No mundo da tecnologia, 
e agora vou filosofar um pouco, na vida, 
é importante saber onde estivemos 
para entendermos onde estamos e para onde estamos indo. 
O contexto histórico pode ajudar você a entender por que as coisas funcionam da forma que funcionam hoje. 
Alguma vez você já se perguntou por que o alfabeto não está na ordem tradicional no seu teclado? 
O layout de teclado que a maior parte do mundo usa hoje é o layout qwerty, 
marcado pelas teclas Q, W, E, R, 
T e Y na fileira superior do teclado. 
As letras mais comuns que você digita não estão na fileira inicial, 
onde seus dedos tocam mais. 
Mas por quê? 
Existem muitas histórias que tentam responder a essa pergunta. 
Algumas dizem que o objetivo era tornar lenta a digitação 
para que as velhas máquinas de escrever não travassem. 
Outras afirmam que o objetivo era resolver o problema dos operadores de telégrafo. 
Uma coisa é certa, 
o layout do teclado usando por milhões de pessoas hoje não é o mais eficaz. 
Diferentes layouts de teclado foram criados para tentar tornar a digitação mais eficiente. 
Agora que estamos começando a viver em um mundo onde os celulares são os protagonistas, 
o visual dos teclados pode mudar completamente. 
Estou de dedos cruzados (e digitando). 
Na indústria da tecnologia, 
ter um pouco de contexto pode ajudar muito 
a dar sentido aos conceitos que você encontra. 
Até o fim desta lição, 
você conseguirá identificar 
alguns dos maiores avanços no início da história dos computadores. 
Você sabe o que é um ábaco? 
Parece um brinquedo de madeira para crianças, 
mas, na verdade, é um dos primeiros computadores já conhecidos. 
Foi inventado em 500 a.C. para contar números grandes. 
Embora tenhamos calculadoras como as antigas e confiáveis TI-89 ou as de nossos computadores, 
os ábacos ainda são usados hoje em dia. 
Ao longo dos séculos, os humanos construíram 
ferramentas de contagem mais avançadas, 
mas ainda era necessário fazer cálculos manuais. 
O primeiro grande avanço foi a invenção 
da calculadora mecânica por Blaise Pascal no século XVII. 
Esse dispositivo usava uma série de engrenagens e alavancas 
para realizar cálculos automáticos para o usuário. 
Embora se limitasse a adição, subtração, 
multiplicação e divisão para números bem pequenos, 
ela abriu caminho para máquinas mais complexas. 
As operações fundamentais 
da calculadora mecânica foram aplicadas depois à indústria têxtil. 
Antes de simplificarmos a produção, 
usávamos teares para produzir tecidos. 
Se quiséssemos criar padrões no tecido, 
era preciso uma quantidade enorme de trabalho manual. 
No século XIX, um homem chamado Joseph Jacquard inventou o tear mecânico. 
Esse tear usava uma série de cartões com buracos. 
Quando o tear encontrava um buraco, 
passava o fio por baixo. 
Quando não encontrava buraco, 
o gancho não passava nenhum fio. 
Assim eram formados os padrões no tecido. 
Esses cartões eram conhecidos como cartões perfurados. 
Embora Jacquard tenha reinventado a indústria têxtil, 
ele provavelmente não sabia que sua invenção 
forjaria o mundo da computação e o mundo atual. 
Impressionante, Jacquard. Impressionante! 
Vamos avançar algumas décadas e conhecer um homem chamado Charles Babbage. 
Babbage foi um talentoso engenheiro que desenvolveu uma série de máquinas 
tidas atualmente como a maior revolução rumo ao computador moderno. 
Ele construiu a chamada máquina diferencial. 
Era uma versão muito sofisticada 
das calculadoras mecânicas de que estávamos falando. 
Ela conseguia realizar operações matemáticas bastante complicadas, mas nada além disso. 
A invenção seguinte de Babbage 
foi uma máquina que ele chamou de máquina analítica. 
Ele se inspirou no uso dos cartões perfurados de Jacquard 
para fazer cálculos automaticamente em vez de inseri-los manualmente. 
Babbage usou os cartões perfurados em sua máquina analítica para permitir 
que as pessoas predefinissem uma série de cálculos a serem realizados. 
Apesar da impressionante conquista, 
a máquina analítica ainda era só uma calculadora mecânica muito avançada. 
Foram necessárias as poderosas percepções de uma matemática 
chamada Ada Lovelace para concretizar o verdadeiro potencial da máquina analítica. 
Ela foi a primeira pessoa a reconhecer que a máquina 
poderia ser usada para algo além de cálculos puros. 
Ela desenvolveu o primeiro algoritmo para a máquina. 
Esse foi o primeiro exemplo de programação de computadores. 
Um algoritmo é simplesmente uma série de etapas para resolver problemas específicos. 
Em razão da descoberta de Lovelace de que os algoritmos 
poderiam ser programados na máquina analítica, 
ela se tornou a primeira máquina de computação para fins gerais da história, 
e um ótimo exemplo de representante feminina 
que foi uma das mentes mais valiosas da tecnologia desde o início do século XIX. 
Já falamos de muita coisa, 
aprendendo como os primeiros dispositivos de contagem como o ábaco 
evoluíram para dispositivos muito complexos como a máquina analítica, 
uma prova de que havia vida antes das redes sociais. 
No próximo vídeo, vamos aprender 
como essas máquinas mecânicas deram um salto para a computação moderna.

O caminho até os computadores modernos


Seja bem-vindo novamente. Neste vídeo, 
aprenderemos como dispositivos enormes, como a máquina analítica, 
cresceram, ou melhor, diminuíram até os dispositivos de computação usados hoje. 
O desenvolvimento da computação vem crescendo constantemente 
desde a invenção da máquina analítica, mas só foi dar um grande salto na 2.ª Guerra Mundial. 
Naquela época, as pesquisas em computação eram caras demais, 
os componentes eletrônicos eram grandes e eram necessários 
muitos desses equipamentos para computar qualquer coisa de valor. 
Assim, os computadores ocupavam um espaço imenso 
e muitas iniciativas foram subfinanciadas e não avançaram. 
Quando a guerra estourou, os governos começaram a injetar dinheiro 
e recursos nas pesquisas em computação. 
Eles queriam desenvolver tecnologias que lhes dessem 
vantagens sobre outros países, 
muitas empreitadas foram feitas e surgiram avanços em campos como a criptografia. 
A criptografia é a arte de escrever e resolver códigos. 
Durante a guerra, os computadores foram usados para processar 
mensagens secretas dos inimigos mais rápido que um humano pudesse pensar em conseguir. 
Hoje, o papel que a criptografia desempenha na comunicação segura 
parte essencial da segurança dos computadores. Falaremos dela mais adiante. 
Por agora, vamos ver como os computadores começaram a causar um grande impacto na sociedade. 
Vamos falar primeiro de Alan Turing, 
matemático inglês hoje considerado cientista da computação. 
Ele ajudou a desenvolver a máquina supersecreta Enigma, 
que ajudou os aliados a decodificar mensagens durante a 2.ª Guerra Mundial. 
A máquina Enigma é apenas um dos exemplos 
de como os governos começaram a reconhecer o potencial da computação. 
Depois da guerra, empresas como IBM, HP 
e outros estavam expandido suas tecnologias para o meio acadêmico, 
empresarial e governamental. 
Muitos avanços tecnológicos e computacionais foram feitos 
no século XX graças ao interesse direto dos governos, 
cientistas e empresas que ficaram após a 2.ª Guerra Mundial. 
Essas organizações inventaram novos métodos para armazenar dados 
em computadores, o que alimentou o crescimento do poder computacional. 
É só lembrar, até que 1950, os cartões perfurados eram uma forma comum de armazenar dados. 
Os operadores tinham pilhas de cartões perfurados em ordem que eram usados para o processamento de
dados. 
Se derrubassem a pilha acidentalmente e os cartões saíssem da ordem, 
era quase impossível ordená-los novamente. 
Obviamente, os cartões perfurados tinham algumas limitações, 
mas, graças a inovações tecnológicas como a fita magnética e seus similares, 
as pessoas começaram a armazenar mais dados em mídias mais confiáveis. 
A fita magnética funcionava magnetizando os dados em uma fita. 
Nos anos 70 e 80, 
as pessoas costumavam ouvir música em discos de vinil ou fitas cassete. 
Essas relíquias são exemplos de como as fitas magnéticas 
conseguem armazenar informações e reproduzi-las em uma máquina. 
Isso fez com que pilhas e pilhas de cartões perfurados ficassem acumulando poeira 
enquanto as fitas magnéticas revolucionavam a indústria. 
Eu não estava brincando quando disse que os primeiros computadores ocupavam muito espaço. 
Havia máquinas enormes para ler dados e racks com válvulas termiônicas para movê-los. 
As válvulas termiônicas controlam as voltagens elétricas 
e todos os tipos de equipamentos eletrônicos, como televisores e rádios, 
mas essas válvulas eram volumosas e quebravam o tempo todo. 
Imagine como era o trabalho de um especialista em suporte de TI 
naqueles primeiros dias da computação. 
Dentre as atividades da função estaria andar agachado 
dentro de máquinas enormes cheias de poeira e objetos estranhos, 
ou substituir válvulas termiônicas e trocar cartões perfurados. 
Naquela época, o termo "computador infectado" tinha um significado mais literal. 
A renomada cientista da computação Almirante Grace Hopper 
contava sua história favorita envolvendo alguns engenheiros trabalhando no computador Harvard Mark II. 
Eles estavam tentando descobrir a origem dos problemas de um relé. 
Depois de algumas investigações, 
descobriram que a raiz do problema era uma mariposa, 
que estava literalmente infectando o computador. 
O ENIAC foi uma das primeiras forma de computador para uso geral. 
Era um aglutinamento parede contra parede de grandes componentes eletrônicos e fios. 
Ele tinha 17.000 válvulas termiônicas e ocupava 168 metros quadrados de piso. 
Imagine se você tivesse que trabalhar com essa escala de equipamentos hoje. 
Eu não gostaria de dividir meu escritório com uma máquina de 168 metros quadrados. 
Posteriormente, a indústria começou a usar transistores para controlar voltagens. 
Hoje o transístor é um componente essencial em todos os dispositivos eletrônicos. 
Os transistores executam quase as mesmas funções 
das válvulas termiônicas, mas são mais compactos e mais eficientes. 
É possível haver bilhões de transistores em um pequeno chip de computador hoje. 
Ao longo das décadas, foram feitos mais e mais avanços. 
O primeiro compilador foi inventado pela Almirante Grace Hopper. 
Os compiladores possibilitaram a tradução 
da linguagem humana para códigos por meio da linguagem de programação. 
Se você não conseguiu entender esse trecho, 
falaremos mais sobre os compiladores mais adiante neste curso. 
A grande novidade é que esse avanço 
foi um marco enorme na computação e nos trouxe até onde estamos hoje. 
Atualmente, é possível que qualquer pessoa em qualquer lugar aprenda as linguagens de programação. 
Não precisamos mais aprender a escrever códigos com um e zero. 
Você verá essas linguagens sendo utilizadas 
em outras aulas, quando você mesmo escreverá seu código. 
Só um parêntese: se isso o assusta, 
não se preocupe, vamos ajudá-lo passo a passo. 
Mas, por enquanto, voltemos à evolução dos computadores. 
Depois, a indústria abriu espaço para os primeiros discos rígidos e microprocessadores. 
Então, a linguagem de programação começou a se tornar 
a forma predominante de desenvolvimento de software pelo engenheiros. 
Computadores foram ficando cada vez menores, 
graças aos avanços dos componentes eletrônicos. 
Em vez de lotar salas inteiras, como o ENIAC, 
eles foram ficando pequenos a ponto de caber em mesas. 
O Xerox Alto foi o primeiro computador 
que parecia com os computadores da forma atual. 
Foi também o primeiro computador a implementar 
uma interface gráfica do usuário com ícones, um mouse e uma janela. 
Alguns de vocês devem se lembrar do tamanho e do preço 
dos computadores antigos que tornavam sua aquisição quase impossível para uma família comum. 
Eles geralmente eram encontrados em instalações militares e de pesquisas em universidades. 
Quando empresas como a Xerox começaram a construir máquinas 
com preço relativamente acessível e com tamanho reduzido, 
iniciou-se a era do consumidor da computação. 
Assim, na década de 1970, 
um jovem engenheiro chamado Steve Wozniak inventou o Apple I, 
um computador de placa única para uso amador. 
Com seu amigo Steve Jobs, 
criou uma empresa chamada Apple Computer. 
A versão seguinte do Apple I, 
o Apple II, estava pronto para uso do consumidor médio. 
O Apple II foi um sucesso fenomenal, 
foi vendido por quase duas décadas e propiciou 
o acesso a computadores pessoais para uma nova geração. 
Pela primeira vez, os computadores tornaram-se acessíveis 
para a classe média e levaram a tecnologia da computação para lares e escritórios. 
Nos anos 80, a IBM apresentou seu computador pessoal. 
Ele foi lançado com uma versão primitiva de um sistema operacional 
chamado MS DOS ou Microsoft Disk Operating System. 
Observação: os sistemas operacionais modernos não têm mais texto, 
eles têm ícones, palavras e imagens bonitas 
como as que vemos em nossos smartphones. 
É incrível como chegamos longe 
desde o primeiro sistema operacional até os sistemas operacionais de hoje. 
Voltando ao PC da IBM, 
ele foi amplamente adotado e ficou mais acessível aos consumidores 
graças a uma parceria com a Microsoft. 
A Microsoft, fundada por Bill Gates, 
criou posteriormente o Microsoft Windows. 
Durante décadas, esse foi o sistema operacional preferido nos locais de trabalho 
e dominou o setor de computação, pois poderia ser executado em qualquer hardware compatível. 
Com mais computadores no local de trabalho, a dependência da TI 
aumentou, assim como a demanda por trabalhadores qualificados que soubessem lidar com essa tecnologia. 
Não eram só os computadores pessoais que entravam nas casas pela primeira vez, 
mas um novo tipo de computação estava surgindo: os videogames. 
Durante os anos 70 e 80, 
as máquinas de entretenimento operadas por moedas, chamadas de fliperamas, tornaram-se cada vez mais
populares. 
Uma empresa chamada Atari desenvolveu 
um dos primeiros jogos de fliperama em 1972, chamado de Pong. 
O Pong foi uma onda tão forte que as pessoas ficavam em pé 
em filas de bares e lojas por horas a fio para jogar. 
Os computadores de entretenimento como o Pong iniciaram a era dos videogames. 
Depois, a Atari lançou o sistema de computador de jogos 
que ajudou a levar os consoles pessoais para as casas. 
Os videogames contribuíram para a evolução dos computadores de uma maneira muito notável, 
vale lembrar para quem acha que ele é um mero brinquedo. 
Os videogames provam para as pessoas que os computadores não servem só para o trabalho, 
eles também são uma ótima fonte de entretenimento. 
Este foi um marco importante para a indústria de computação, 
já que, naquela época, 
os computadores eram usados principalmente nos locais de trabalho ou em instituições de pesquisa. 
Com grandes nomes no mercado como o Apple Macintosh 
e o Microsoft Windows tomando espaço entre os sistemas operacionais, 
um programador chamado Richard Stallman começou 
a desenvolver um sistema operacional gratuito parecido com o Unix. 
O Unix era um sistema operacional desenvolvido por Ken Thompson e Dennis Ritchie, 
mas não era barato e não estava disponível para todos. 
Stallman criou um OS que apelidou de GNU. 
Ele era para ser gratuito e usado com funções semelhantes ao Unix. 
Ao contrário do Windows ou do Macintosh, 
p GNU não era de propriedade de uma única empresa, 
seu código era aberto, o que significava que qualquer pessoa poderia modificá-lo e compartilhá-lo. 
O GNU não evoluiu para um sistema operacional completo, 
mas formou a base para a criação 
do maior sistema operacional de código aberto, 
o Linux, que foi criado por Linus Torvalds. 
Falaremos dos detalhes técnicos do Linux mais adiante neste curso, 
mas saiba apenas que ele é um grande nome nos sistemas operacionais atuais. Como especialista em suporte
de TI, 
é muito provável que você trabalhe com um software de código aberto. 
Você já pode estar usando um, como o navegador Mozilla Firefox. 
No início dos anos 90, os computadores ficaram ainda menores, 
foi quando algo revolucionário entrou na cena: 
os PDAs ou assistentes digitais pessoais, 
que permitiram que a computação se tornasse móvel. 
Esses dispositivos móveis tinham reprodutores de mídias, processadores de texto, 
clientes de e-mail, navegadores de internet 
e tudo mais em um dispositivo portátil e prático. 
No fim dos anos 90, 
a Nokia apresentou um PDA com função de telefone celular. 
Foi ele que deu gás para a indústria de computadores de bolso ou, como chamamos hoje, os smartphones. 
Em poucas décadas, passamos de computadores que pesavam toneladas 
ocupavam salas inteiras para computadores poderosos que cabem no bolso. 
É quase inacreditável, mas isso é só o começo. 
Se você está entrando na indústia de TI, 
é essencial que você saiba 
apoiar a crescente necessidade dessa tecnologia em constante mudança. 
O suporte para computadores há 50 anos consistia 
em trocar válvulas termiônicas e empilhar cartões perfurados, 
coisas que nem existem no mundo atual 
da TI. À medida que os computadores evoluem em complexidade e em presença, 
também evolui o conhecimento necessário para oferecer suporte e manutenção. 
Dentro de 10 anos, pode ser que a TI 
exija o trabalho de suporte por meio de lentes de realidade virtual... nunca se sabe. 
Quem sabe o que o futuro nos reserva? 
Mas, neste momento, é muito legal estar na linha de frente desta indústria. 
Agora que já sabemos de onde vieram os computadores 
e como eles evoluíram ao longo das décadas, 
vamos entender melhor como os computadores realmente funcionam.

Linguagem dos computadores


Lembra quando eu disse que o computador é um dispositivo que armazena 
e processa dados executando cálculos? 
Esteja você está criando uma inteligência artificial que possa derrotar seres humanos no xadrez 
ou algo mais simples, como rodar um videogame, 
a quanto mais poder de computação você tem acesso, mais você pode realizar. 
Até o fim desta lição, 
você vai entender o que e como um computador calcula. 
Vamos analisar este simples problema de matemática. 
0 + 1 é igual a...? 
Leva apenas um instante para chegar à resposta 1, mas imagine que você precisa 
fazer 100 cálculos dessa simplicidade. 
Você conseguiria fazer e, se fosse cuidadoso, poderia até não cometer erros. 
Bem, e se você tivesse que fazer 1.000 cálculos assim? 
E se fossem 1 milhão? E se fossem 1 bilhão? 
É exatamente isso que o computador faz. 
Um computador simplesmente compara 1s e 0s, mas milhões ou bilhões de vezes por segundo. 
Uau! 
A comunicação usada pelo computador é chamada de sistema binário, 
também conhecido como sistema de base dois. 
Isso significa que ele só conversa em 1s e 0s. 
Você pode estar pensando: "Certo, meu computador só conversa em 1s e 0s. 
Como me comunico com ele?" 
Pense da seguinte forma. 
Nós usamos as letras do alfabeto para formar palavras e dar significado a essas palavras. 
Nós as usamos para criar frases, parágrafos e histórias inteiras. 
O mesmo se aplica ao binário, exceto que, em vez de A, B, C e assim por diante, 
temos apenas 0 e 1 criar palavras para as quais daremos sentido. 
Em termos de computação, agrupamos o binário em 8 números, ou bits. 
Tecnicamente, o bit é um dígito binário. 
Historicamente, usamos 8 bits nos primórdios da computação, 
os hardwares utilizavam o sistema de base dois para mover os bits. 
Usar oito números oferecia uma gama suficientemente ampla 
de valores para a computação de que precisávamos. 
Naquela época, quaisquer números de bits eram usados, 
mas, depois, o agrupamento de 8 bits tornou-se o padrão da indústria, o qual usamos hoje. 
Você já deve saber que um grupo de 8 bits é chamado de byte. 
Assim, um byte de zeros e uns poderia ser algo do tipo 10011011. 
Cada byte pode armazenar um caractere, e podemos ter 256 valores possíveis, 
graças ao sistema de base dois. 
Na linguagem do computador, este byte poderia representar algo como a letra C.
E é assim que nasceu a linguagem do computador. 
Vamos fazer uma tabela rápida para traduzir algo que o computador pode reconhecer 
para algo que nós podemos reconhecer. 
No que se traduz o seguinte?
Conseguiu ver "hello"? Muito legal, não é?
Usando binário, podemos ter uma comunicação ilimitada com o nosso computador. 
Tudo que você vê no seu computador agora, seja vídeo, 
imagem, texto ou qualquer outra coisa, nada é nada mais que 1 ou 0. 
É importante você entender como o binário funciona. 
Ele é a base para todo o restante que faremos neste curso, 
então não deixe compreender o conceito antes de seguir em frente.
Codificação de caracteres

Lembra-se do vídeo anterior que um byte pode armazenar apenas zeros e uns? 
Isso quer dizer que podemos ter 256 valores possíveis, 
Até o fim deste vídeo, 
você aprenderá a representar palavras, números, 
emojis e muito mais do que vemos em nossas telas, 
apenas a partir desses 256 valores possíveis. 
Tudo isso graças à codificação de caracteres. 
A codificação de caracteres é usada para atribuir 
nossos valores binários a caracteres para que nós, humanos, possamos lê-los. 
É claro que não queremos ver os textos dos nossos e-mails 
e das páginas on-line cheios de sequências complexas de zeros e uns. 
É aí que as codificações de caracteres são úteis. 
Pense na codificação de caracteres como um dicionário. 
É uma forma usada pelos computadores para procurar 
quais caracteres humanos devem ser representados por determinado valor binário. 
O padrão de codificação de caracteres mais antigo é o ASCII. 
Ele representa o alfabeto, os dígitos 
e os sinais de pontuação do inglês. 
O primeiro caractere em ASCII da tabela binária, o "A" minúsculo, 
corresponde a 0 1 1 0 0 0 0 1 no binário. 
Assim ocorre para todos os caracteres usados 
no alfabeto inglês, bem como para números e alguns símbolos especiais. 
O legal do ASCII é que foi necessário usar 
apenas 127 valores do total possível de 256. 
Ele durou muito tempo, 
mas, em determinado momento, não foi o suficiente. 
Outros padrões de codificação de caracteres foram recriados para representar diferentes idiomas, 
diferentes quantidades de caracteres e muito mais. 
Depois, foi necessário haver mais que os 256 valores possíveis. 
Aí chegou o UTF 8. 
O padrão de codificação mais usado atualmente. 
Além de usar a mesma tabela do ASCII, 
ele também nos permite usar um número variável de bytes. 
O que quero dizer com isso? Pense em um emoji. 
Não é possível criar emojis com um único byte, 
pois só podemos armazenar um caractere em um byte. 
Entretanto, o UTF 8 nos permite armazenar um caractere em mais de um byte, 
possibilitando emojis infinitos para nós. 
O UTF 8 é construído a partir do padrão Unicode. 
Não vamos entrar em muitos detalhes, 
mas o padrão Unicode nos ajuda a representar a codificação de caracteres de maneira uniforme. 
Agora que conseguimos representar letras, números, 
sinais de pontuação e até emojis, 
como representamos as cores? 
Bem, existem todos os tipos de modelos de cores. 
Por enquanto, vamos nos ater ao modelo básico usado em muitos computadores. 
O modelo RGB, ou Red, Green, Blue. 
Assim como nas cores reais, 
se você fizer combinações dessas três, 
você poderá obter toda a gama de cores. 
Na terra dos computadores, usamos 3 caracteres para o modelo RGB. 
Cada caractere representa um tom da cor 
e ele muda a cor do pixel que você vê na tela. 
Com apenas oito combinações de zeros e uns, 
conseguimos representar tudo o que você vê em seu computador, 
desde uma simples letra A, 
até o vídeo que você está vendo agora no site do Coursera. 
Muito legal. No próximo vídeo, 
vamos conversar sobre a geração, de fato, dos zeros e uns.
Sistema binário
Você pode estar se perguntando como os computadores obtêm esses uns e zeros. 
É uma ótima pergunta. Imagine que temos uma lâmpada 
e um interruptor que liga ou desliga a luz. 
Se acendemos a luz, 
definimos que se trata de um. 
Se a lâmpada está desligada, 
definimos que se trata de zero. 
Agora imagine oito lâmpadas e interruptores, 
que representam oito bits em zero ou em um. 
Vamos relembrar os cartões perfurados que foram usados no tear de Jacquard. 
Lembre-se de que o tear usava cartões com buracos. 
Quando o tear chegava em um buraco, ele passava a linha por baixo, 
indicando que o tear estava ligado. 
Se não tivesse um buraco, 
ele não passava o fio, indicando que estava desligado. 
Este é o conceito básico do binário. 
Utilizando os dois estados (ligado ou desligado), 
Jacquard conseguiu tecer padrões complexos de tecido em seus teares. 
Então a indústria começou a refinar um pouco mais os cartões perfurados. 
Se tivesse um furo, 
o computador lia um. 
Se não tivesse furo, ele lia zero. 
Assim, apenas traduzindo a combinação de zeros e uns, 
nosso computador conseguia calcular qualquer quantidade possível de números. 
O binário no computador de hoje não se faz com leitura de furos. 
Ele usa a eletricidade por meio de transistores, permitindo a passagem de sinais elétricos. 
Se há voltagem, 
definimos como um. 
Se não há voltagem, definimos como zero. 
Mas só ter transistores não é suficiente para que o computador consiga fazer tarefas complexas. 
Imagine se você tivesse dois interruptores de luz em lados opostos de uma sala, 
os dois controlando a luz da sala. 
E se, quando você acendesse a luz com um interruptor, 
o outro interruptor não a desligasse? 
Esse seria um tear muito mal projetado. 
Os dois interruptores devem ligar ou desligar a luz, dependendo do estado dela. 
Felizmente, temos algo conhecido como circuitos lógicos. 
Os circuitos lógicos permitem que nossos transistores façam tarefas mais complexas, 
como decidir para onde enviar sinais elétricos dependendo das condições lógicas. 
Existem muitos tipos diferentes de circuitos lógicos, 
mas não vamos entrar em detalhes aqui. 
Se você está curioso sobre o papel desempenhado 
pelos transistores e pelos circuitos lógicos nos circuitos modernos, 
você pode ler mais sobre o assunto na leitura suplementar. 
Agora sabemos como o computador recebe 
seus uns e zeros para fazer cálculos com instruções específicas. 
Mais adiante neste curso, poderemos falar sobre como transformar 
instruções legíveis por seres humanos 
em zeros e uns que sejam compreensíveis pelos computadores por meio de compiladores. 
Esse é um dos elementos formadores básicos 
da programação, a qual possibilitou a criação de nossos sites favoritos de redes sociais, 
videogames e quase todo o restante. 
E eu estou muito empolgado para lhe ensinar a contar no código binário. Até a próxima.
Leitura complementar sobre portas lógicas
https://simple.wikipedia.org/wiki/Logic_gate

Uma porta lógica é um componente eletrônico que pode ser usado para conduzir eletricidade com base
em uma regra. [1] A saída da porta é o resultado da aplicação desta regra a uma ou mais "entradas". Essas
entradas podem ser de dois fios ou a saída de outras portas lógicas.

As portas lógicas são componentes digitais . Eles normalmente trabalham em apenas dois níveis


de tensão , um nível positivo e um nível zero. Comumente trabalham com base em dois
estados: On e Off . No estado On, a tensão é positiva. No estado desligado, a tensão é zero. O estado On
geralmente usa uma tensão na faixa de 3,5 a 5 volts . Este intervalo pode ser menor para alguns usos.

As portas lógicas comparam o estado em suas entradas para decidir qual deve ser o estado em sua
saída. Uma porta lógica está ligada ou ativa quando suas regras são atendidas corretamente. Neste
momento, a eletricidade está fluindo através do portão e a tensão em sua saída está no nível de seu
estado On.

As portas lógicas são versões eletrônicas da lógica booleana . As tabelas de verdade informam qual será


a saída, dependendo das entradas.

E porta lógica [ mudar | mude a fonte ]

Ver artigo principal: portão AND

Uma ideia geral de um símbolo para uma Porta Lógica AND

As portas AND têm duas entradas. A saída de uma porta AND está ligada apenas se ambas as entradas
estiverem ligadas . Se pelo menos uma das entradas estiver desligada, a saída estará desligada.
Usando a imagem à direita, se A e B estiverem no estado On, a saída (saída) estará no estado
On. Se A ou B estiver em um estado desligado, a saída também estará em um estado
desligado. A e B devem estar On para que a saída esteja On.

tabela verdade

ENTRADA SAÍDA

A B AeB

Sobre Sobre Sobre

Sobre Desligado Desligado

Desligado Sobre Desligado

Desligado Desligado Desligado

OU porta lógica [ mudar | mude a fonte ]

Ver artigo principal: portão OR

Uma ideia geral de um símbolo para uma porta lógica OU

As portas OR têm duas entradas. A saída de uma porta OR estará ligada se pelo menos uma das entradas
estiver ligada . Se ambas as entradas estiverem desligadas, a saída estará desligada.

Usando a imagem à direita, se A ou B estiver ativado, a saída ( saída ) também estará


ativada. Se A e B estiverem desligados, a saída será desligada.

tabela verdade

ENTRADA SAÍDA

A B A OU B

Sobre Sobre Sobre

Sobre Desligado Sobre

Desligado Sobre Sobre

Desligado Desligado Desligado

NÃO porta lógica [ alterar | mude a fonte ]


Ver artigo principal: NÃO portão

Uma ideia geral de um símbolo para uma Porta NÃO Lógica

A porta lógica NOT tem apenas uma entrada. Se a entrada estiver ligada, a saída estará desligada . Em
outras palavras, a porta lógica NOT muda o sinal de On para Off ou de Off para On. Às vezes é chamado
de inversor.

tabela verdade

ENTRADA SAÍDA

A NÃO É UM

Desligado Sobre

Sobre Desligado

Porta lógica XOR [ alterar | mude a fonte ]

Ver artigo principal: portão XOR

Uma ideia geral de um símbolo para uma Porta Lógica XOR

Os portões XOR ("exclusivo ou") têm duas entradas. A saída de uma porta XOR será verdadeira apenas
se as duas entradas forem diferentes uma da outra . Se ambas as entradas forem iguais, a saída será
desligada.

tabela verdade

ENTRADA SAÍDA

A B A XOR B

Sobre Sobre Desligado

Sobre Desligado Sobre

Desligado Sobre Sobre

Desligado Desligado Desligado


Porta lógica NAND [ alterar | mude a fonte ]

Ver artigo principal: porta NAND

Uma ideia geral de um símbolo para uma Porta Lógica NAND

NAND significa não ambos. É chamado de NAND porque significa "não e". Isso significa que
sempre produzirá true, a menos que ambas as entradas estejam ativadas .

tabela verdade

ENTRADA SAÍDA

A B A NAND B

Sobre Sobre Desligado

Sobre Desligado Sobre

Desligado Sobre Sobre

Desligado Desligado Sobre

Porta lógica XNOR [ mudar | mude a fonte ]

Ver artigo principal: portão XNOR

Uma ideia geral de um símbolo para uma Porta Lógica XNOR

XNOR significa "não exclusivo ou". Isso significa que ele só produzirá true se ambas as entradas forem
iguais . É o oposto de uma porta lógica XOR.

tabela verdade

ENTRADA SAÍDA

A B A XNOR B
Sobre Sobre Sobre

Sobre Desligado Desligado

Desligado Sobre Desligado

Desligado Desligado Sobre

Como contar em binário

O binário é o elemento de comunicação fundamental dos computadores, 


mas ele é usado para representar mais que apenas texto e imagens. 
Ele é usado em muitos aspectos da computação, como nas redes de computadores, 
que você aprenderá em um curso posterior. 
É importante que você entenda como os computadores contam no binário. 
Mostramos tabelas de consulta simples que você pode usar, como a tabela ASCII para binário, 
mas, enquanto especialista em suporte de TI, 
esteja você trabalhando com redes ou segurança, 
você precisará saber como funciona o binário. 
Então vamos começar! Você precisará de uma boa caneta e papel, 
uma calculadora e um pouco da boa e velha energia mental para te ajudar neste vídeo. 
O sistema binário é usado pelos computadores para contar usando uns e zeros, 
mas os humanos não contam assim. 
Quando você era criança, você deve ter contado usando os dez dedos da mão. 
Esse sistema de contagem é chamado de forma decimal ou sistema de base dez. 
No sistema decimal, 
existem 10 números possíveis, de zero a nove. 
Quando contamos no binário, 
que usa somente zero e um, 
nós o convertemos para um sistema que podemos entender, o decimal. 
330, 250, 2, 40, 
4 milhões, são todos números decimais. 
Usamos o sistema decimal para nos ajudar a descobrir quais bits nosso computador pode usar. 
Podemos representar qualquer número existente usando apenas bits. É isso mesmo. 
E podemos representar esse número usando apenas uns e zeros. 
Então, como funciona? 
Vamos considerar estes números: 128, 64, 
32, 16, 8, 4, 2 e 1. 
Quais padrões você vê? 
Espero que você tenha visto que cada número 
é o dobro do número anterior, da direita para a esquerda. 
E se você somasse todos eles? 
Você tem 255. 
Isso é meio estranho. Eu pensei que poderíamos ter 256 valores para um byte. Bem, e temos mesmo. 
O zero é contado como valor, 
então o número decimal máximo que você pode ter é 255. 
Qual você acha que é o número representado aqui? 
Veja onde os uns e os zeros estão representados. 
Lembre-se, se o computador vê um, 
então o valor está ligado. 
Se ele vê zero, o valor está desligado. 
Se você somar esses números, 
você terá um valor decimal. 
Se você pensou em 10, você acertou. 
Muito bem. Se você não conseguiu, 
tudo bem também. Olhe novamente. 
O 2 e 8 estão ligados, 
e se os somarmos, obtemos 10. 
Vamos olhar nossa tabela ASCII para binário novamente. 
A letra H em binário é 01101000. 
Agora, vamos dar uma olhada na tabela ASCII para decimal. 
A letra H em decimal é 104. 
Agora, vamos ver nosso gráfico de conversão novamente. 
64 mais 32 mais 8 é igual a 104. 
Olhe bem! A matemática confirma. Agora foi para valer! 
Uau! Passamos por todos os fundamentos 
dos elementos formadores básicos da computação e da linguagem de máquina. 
Em seguida, você aprenderá a criar em cima dessa camada de computação 
para executar a tarefa que você faz no seu cotidiano.

1.
Pergunta 1
Qual das seguintes opções é um byte válido? Marque todas as respostas corretas.

1 ponto

11011011

00000000

10022011

11100

2.
Pergunta 2
Quantos valores podem ser representados com 8 bits?

1 ponto

1 byte

127

256

3.
Pergunta 3
Por que o padrão de codificação de caracteres UTF-8 substituiu o padrão ASCII?

1 ponto

O UTF-8 utiliza apenas 128 valores diferentes.


O ASCII pode representar emojis.

O UTF-8 permite utilizar mais de um byte para armazenar um caractere.

O ASCII pode utilizar mais de um byte para armazenar um caractere.

4.
Pergunta 4
Qual é o maior valor decimal que pode ser representado por um byte??

1 ponto

Qualquer número

255

256

5.
Pergunta 5
No ASCII, a representação binária da letra "c" é 0110 0011. Utilizando a prática cartilha que lhe foi apresentada
na lição, converta esse número ao seu valor decimal. Para responder a essa pergunta, você precisará fazer
alguns cálculos.

1 ponto

45

123

99

100

Abstração
Quando interagimos com nossos computadores, usamos nosso mouse, teclado 
até mesmo uma tela sensível ao toque. 
Não fazemos contagens de zeros e uns para entendermos alguma coisa. 
Mas, espere! Na verdade, contamos, sim. 
Só não precisamos nos preocupar com isso. 
Usamos o conceito da abstração para tomar um sistema relativamente complexo 
e simplificá-lo para nosso uso. 
Você usa abstração todos os dias no mundo real, e talvez você nem saiba disso. 
Se você já dirigiu um carro, 
sabe que não precisa saber operar a transmissão ou o motor diretamente. 
Existe um volante, os pedais, às vezes há uma alavanca de câmbio. 
Se você comprar um carro de um fabricante diferente, 
você procederá praticamente da mesma forma, 
ainda que o equipamento sob o capô seja completamente diferente. 
Essa é a essência da abstração. 
A abstração oculta a complexidade oferecendo uma interface comum, o volante, 
os pedais, a alavanca de câmbio e o painel no nosso exemplo do carro.
A mesma coisa acontece em nosso computador. 
Não precisamos saber como tudo funciona embaixo do capô. 
Temos um mouse e um teclado que podemos usar para interagir com ele. 
Graças às abstrações, 
o usuário médio de um computador não precisa se preocupar com os detalhes técnicos. 
Vamos usar essa metáfora do capô ao longo do treinamento para descrever 
a área que abrange a implementação subjacente da tecnologia. 
Na computação, usamos a abstração para facilitar o pensamento 
sobre um problema muito complexo, como o funcionamento dos computadores. 
Fazemos isso dividindo-o em ideias mais simples que descrevem 
conceitos ou tarefas individuais que precisam ser feitas e, em seguida, empilhamos esses elementos em
camadas. 
Este conceito de abstração será usado durante todo este curso. 
É um conceito fundamental no mundo da computação. 
Outro exemplo simples de abstração na função de TI que você verá muito 
é a mensagem de erro. 
Não precisamos dissecar o código de outra pessoa para encontrar o problema. 
Isso foi abstraído para nós e colocado na forma de mensagem de erro. 
Uma simples mensagem de erro como "arquivo não encontrado" nos dá muita informação 
e nos poupa tempo para descobrirmos uma solução. 
Dá para imaginar se, em vez de abstrair uma mensagem de erro, 
nosso computador não fizesse nada e não tivéssemos nenhuma pista de onde começar a procurar respostas? 
A abstração nos ajuda de muitas formas das quais sequer nos damos conta.

Visão geral da arquitetura dos computadores


No último vídeo, falei que as pessoas não precisam entender como um computador 
funciona para que elas o utilizem, pois a abstração torna as coisas mais simples para nós. 
Tecnicamente, isso é verdade, mas já que você está entrando no mundo da TI, 
você precisa entender todas as camadas de um computador e como elas funcionam. 
É essencial que você entenda como as diferentes peças interagem, 
assim você poderá resolver qualquer problema que possa surgir. 
No restante deste curso, vamos mergulhar profundamente nas camadas 
da arquitetura do computador e conhecer todas as partes que formam um computador. 
O computador pode ser dividido em quatro camadas principais: hardware, 
sistema operacional, software e usuários. 
A camada de hardware é composta pelos componentes físicos do computador. 
São objetos que você consegue tocar fisicamente com suas mãos. 
Laptops, telefones, monitores, teclados, só para ter uma ideia. 
Na próxima aula, você conhecerá todos os componentes do computador 
e verá como eles funcionam. 
Você conseguirá até montar seu próprio computador até o fim deste módulo. 
O sistema operacional permite que o hardware se comunique com o sistema. 
O hardware é fabricado por muitas marcas diferentes. 
O sistema operacional permite que as peças sejam usadas em nosso sistema, 
independentemente de onde vieram. 
Nas próximas aulas, você aprenderá sobre os principais sistemas operacionais 
que usamos hoje e conseguirá compreender 
todos os componentes subjacentes que compõem um sistema operacional. 
No fim destas aulas, você terá uma boa compreensão dos principais componentes 
de qualquer sistema operacional, como Android ou Windows, 
e poderá usar esse conhecimento para navegar por qualquer sistema operacional. 
A camada de software consiste em como nós, humanos, interagimos com os computadores, 
Quando você usa um computador, você recebe uma grande quantidade de softwares com que você interage, 
seja um aplicativo para dispositivos móveis, um navegador de internet, um processador de texto 
ou o próprio sistema operacional. 
Mais adiante neste curso, saberemos como o software é instalado em nossos sistemas 
e como interagimos com os diferentes tipos de software. 
A última camada pode não parecer parte do sistema, 
é uma camada essencial da arquitetura do computador: o usuário. 
O usuário interage com o computador pode fazer mais que isso. 
Ela pode operar, manter e até programar o computador. 
A camada do usuário é uma das camadas mais importantes que vamos conhecer. 
Quando você entra na área da TI, você pode se deparar com conteúdos 
muito técnicos, mas a parte mais importante da TI é o elemento humano. 
Embora trabalhemos com computadores todos os dias, é a interação do usuário que forma 
a maior parte do nosso trabalho, desde a resposta aos seus e-mails até o conserto de seus computadores. 
Até o fim do curso, 
você também aprenderá a aplicar seu conhecimento sobre o funcionamento do computador 
para corrigir problemas do mundo real que podem parecer aleatórios e obscuros às vezes. 
Faremos isso aprendendo a utilizar táticas de resolução de problemas para identificar 
problemas e soluções. 
Há muito pela frente. 
O próximo instrutor que você vai conhecer é um amigo meu, Devon. 
E eu sei que não há ninguém melhor para lhe ensinar sobre hardware. 
Ele vai mostrar até como montar um computador a partir dos componentes, 
muito legal. 
Mas antes de começar a montar esse computador, temos um questionário para você 
sobre contagem binária.

Introdução do módulo
A história dos computadores não é muito interessante? 
Adoro voltar no tempo 
e ver como chegamos a este ponto fantástico na computação. 
Você já deu os primeiros passos para construir seu conhecimento básico 
em TI e, antes de mergulharmos mais fundo, eu gostaria de tirar um momento para me apresentar. 
Meu nome é Devan Sri-Tharan, e eu trabalho com TI há dez anos. 
Sou engenheiro de operações corporativas no Google, 
onde tento resolver problemas desafiadores e complexos de TI. 
Se eu olhar para trás, minha primeira experiência com a tecnologia ocorreu quando eu tinha cerca de nove
anos, 
quando meu pai trouxe para casa o primeiro computador da família. 
Lembro-me do meu pai segurando um disquete e dizendo 
que havia um jogo nele. 
Para o espanto do meu pai, de alguma forma eu consegui copiar o jogo do disquete 
para o disco rígido do computador. 
Embora possa parecer algo trivial hoje, esse dispositivo era incrivelmente 
novo para nós naquela época. 
Claro, eu amei os diferentes jogos que eu podia jogar, mas o que eu realmente gostava de fazer 
era mexer com a máquina e tentar fazer com que ela fizesse o que eu mandasse. 
Embora esse disquete de computador possa ter despertado minha paixão pela tecnologia, 
foram minhas primeiras experiências de trabalho que começaram a moldar minha carreira na TI. 
Um foi no comércio, [RISOS] vendendo móveis de bebê, 
a outra foi nos correios, onde eu ajudava os clientes a enviar seus pacotes, 
e passei a ser a equipe de TI. 
Pode parecer estranho que trabalhar no comércio tenha inspirado minha carreira, 
mas eu percebi que realmente gosto de me comunicar com os clientes, 
tentar entender as necessidades deles e oferecer uma solução. 
Minha primeira experiência trabalhando diretamente na TI foi na faculdade, 
como estagiário em suporte de TI. 
De lá, trabalhei como consultor de TI na desativação de todo um ambiente de TI. 
Esta foi minha primeira experiência trabalhando diretamente com uma grande infraestrutura de TI, 
esforçando-me fora da minha zona de conforto de um estudante universitário. 
Estou falando desses empregos por um motivo. 
Essas experiências ajudaram a formar minha carreira em TI. 
Naquela época, eu já sabia que queria a área de tecnologia, 
mas tive dificuldade para saber onde focar minha carreira. 
O começo no Google como jornalista de TI me permitiu experimentar diversas 
áreas da tecnologia. 
Assim eu pude descobrir o que eu não queria fazer, 
antes de conseguir identificar exatamente o que eu queria fazer. 
A infraestrutura de TI é apaixonante, mas 
você não consegue entender de infraestrutura sem entender de hardware. 
Então vamos nos aprofundar. 
Em TI, hardware é assunto essencial que deve ser compreendido. 
Você pode ter que substituir peças defeituosas 
ou até fazer um upgrade de várias máquinas em um dia. 
Até o fim desta aula, você conseguirá descrever todas as peças físicas 
de um computador e o funcionamento conjunto delas. 
Você conseguirá até mesmo montar seu próprio computador. 
Depois de descobrir como funciona um computador, 
você conseguirá compreender como funciona qualquer tipo de computador. 
Animado? Eu estou. Então vamos começar!

Introdução a hardware
Sejamos sinceros: os computadores estão por toda parte.
Você tem contato com eles em casa, no trabalho, no aeroporto,
no supermercado, você está usando algum tipo de computador para fazer este curso.
Sabe de uma coisa?
Deve ter um no seu bolso agora mesmo.
Embora os computadores sejam complexos possam parecer difíceis de decifrar,
a função deles nada mais é que calcular, processar e armazenar dados.
Nesta lição, vamos dar uma olhada no que está dentro do computador.
Vamos passar as próximas aulas explicando como funciona
cada um desses componentes.
Mas, por enquanto, vamos ver a configuração típica de um desktop.
Desktops são simplesmente computadores que cabem em cima ou embaixo de uma mesa.
Neste caso temos um monitor, um teclado, um mouse e um desktop.
Você pode até adicionar uma webcam, alto-falantes ou uma impressora. 
Vamos chamar esses componentes físicos de hardware. 
Vamos dar uma olhada na parte de trás do computador.
Aqui você vê os conectores comuns, a entrada de energia aqui, 
e as portas comuns aqui. 
Portas são pontos de conexão aos quais podemos conectar dispositivos 
para ampliar a funcionalidade do computador. 
Vamos detalhar as portas que você está vendo em outra aula. 
Mas confira este rápido resumo. 
Temos uma porta aqui para conectar um monitor 
e algumas portas aqui para ligar o teclado e o mouse.
Há outra porta importante aqui para a conexão de rede.
Apenas com essas portas, 
temos o funcionamento básico para navegar na web e muito mais. 
É tudo muito parecido em um laptop.
Veja algumas das mesmas portas.
Um monitor e um teclado embutidos.
Existem também componentes físicos dentro da estrutura do laptop, que ficam ocultos 
por razões de portabilidade. 
Depois de descobrir como funciona um computador,
você vai descobrir como funciona qualquer outro computador. 
Bem, esta é minha parte favorita. 
Vamos abrir este desktop e olhar com mais detalhes. 
Primeiro vou limpar minha mesa.
Uau, parece muito complicado, mas não tem problema. 
Vamos explicar passo a passo. 
Vamos começar com uma olhada geral. 
Depois, vamos analisar em detalhes cada uma dessas peças na próxima aula. 
Este componente aqui é um processador, ou unidade central de processamento (CPU), 
que é coberta por este dissipador de calor. 
Você pode ver o processador como o cérebro do computador. 
O processador faz todos os cálculos e processamentos de dados. 
Ele se comunica bastante com este componente aqui, 
a RAM, ou memória de acesso aleatório. 
A RAM é a memória de curto prazo do computador. 
Usamos esse componente quando queremos armazenar dados temporariamente. 
Por exemplo, você está digitando algo em um bate-papo 
escrevendo algo em um processador de texto. 
Essas informações são armazenadas na RAM. 
Não se preocupe, vamos ver mais detalhes sobre a RAM em outra aula. 
Quando queremos armazenar algo na memória de longo prazo, 
usamos este componente aqui, o disco rígido. 
O disco rígido guarda todos os nossos dados, 
que podem ser músicas, fotos, aplicativos. 
Deixe-me mostrar algo muito interessante. 
Percebeu esta placa grande aqui? 
Ela é a placa-mãe.
Ela organiza tudo e permite que os componentes se comuniquem entre si. 
É a base do nosso computador. 
Você pode pensar na placa-mãe como o corpo 
ou o sistema circulatório do computador que reúne todas as peças. 
O último componente de que falaremos é a fonte de alimentação, que converte 
a eletricidade da tomada em um formato que o computador pode usar. 
Sabe o que é interessante? 
Todos esses componentes formam a maioria dos computadores, até os celulares. 
Embora possa parecer muito diferente do seu laptop, o celular usa apenas 
uma versão menor do hardware que vimos no desktop e no laptop hoje.
Então agora que explicamos a anatomia básica do computador,
falaremos de cada um desses componentes com detalhes nas próximas aulas.
Entender como funciona o hardware do computador é realmente útil no suporte de TI,
já que o departamento de TI faz a manutenção do hardware usado pela empresa.
Uma sólida compreensão destas peças virá a calhar durante a resolução de problemas
/1/1/1 relacionados a hardware, e
fragmentar as peças para ver elas funcionam é muito legal.

Programas e hardware
Antes de colocarmos a mão na massa e aprender a montar um computador, 
vamos falar de teoria primeiro. 
Em uma aula anterior, falamos sobre o binário, 
e como os computadores fazem cálculos. 
Lembre-se de que o computador só pode se comunicar em binário, 
usando uns e zeros. 
Os computadores conversam na língua das máquinas, mas nós falamos línguas humanas, 
como inglês, espanhol, mandarim, hindu. 
Você entendeu a ideia. 
Se quisermos nos comunicar com nossas máquinas, 
precisaremos ter um dicionário de tradução. 
Se eu quisesse dizer algo em espanhol, 
eu buscaria a palavra em um dicionário inglês-espanhol. 
Bem, os computadores têm glossário de tradução embutido. 
Nesta aula, vamos nos aprofundar na forma como o computador traduz as informações 
que damos em instruções que ele entende. 
Neste momento, você deve estar usando um navegador, um reprodutor de músicas, um bloco de notas 
e outras funções do seu computador. 
Interagimos com estes aplicativos todos os dias. 
Eles são chamados de programas. 
Os programas são instruções básicas que dizem ao computador o que ele deve fazer. 
Tecnicamente, armazenamos os programas em mídias duráveis, como discos rígidos. 
Você pode pensar nos programas como receitas culinárias. 
Guardamos todas essas receitas juntas em um livro de receitas, 
assim como os aplicativos ficam em um disco rígido. 
Agora queremos fazer uma tonelada de comida. 
Então, contratamos um chef para seguir nossas receitas e preparar algo gostoso. 
Quanto mais rápido nosso chef trabalha, mais comida ele vai preparar. 
O chef é nosso processador, que processa as receitas que mandamos e ele faz a comida. 
Nosso chef trabalha super-rápido, tão rápido que ele cozinha mais rápido do que lê. 
Então, pegamos cópias das receitas e as colocamos na RAM. 
Lembre-se de que a RAM é a memória de curto prazo do computador. 
Ela guarda as informações em um local que a CPU acessa 
mais rápido do que conseguiria no disco rígido. 
Agora podemos dar ao nosso chef uma ou duas receitas por vez, 
em vez de narrar o livro inteiro para ele. 
Certo, vamos imaginar agora que eu queira um sanduíche de manteiga de amendoim com geleia. 
Vejo uma receita muito boa e mando para o chef fazer.
Reproduza o vídeo começando em :2:13 e siga a transcrição2:13
Lembre-se de que o chef precisa dessas instruções rapidamente, 
então eu não mando a receita inteira para ele, mando uma linha por vez. 
1. Pegue duas fatias de pão. 
2. Coloque a manteiga de amendoim em uma fatia. 
3. Coloque a geleia em outra fatia. 
4. Junte as duas fatias de pão. 
Agora, deixe-me lhe contar algo mais. 
Nosso chef só consegue se comunicar conosco com uns e zeros. 
Então, em vez de enviar algo legível, como a receita do sanduíche 
de manteiga de amendoim com geleia, temos que enviar algo assim para ele. 
Na verdade, esse processo é um pouco mais complicado. 
Nossa CPU está constantemente recebendo instruções e as executando. 
Essas instruções são escritas em binário, 
mas como elas percorrem o computador? 
Em nosso computador, temos algo chamado de barramento de dados externo ou EDB.
Reproduza o vídeo começando em :3:5 e siga a transcrição3:05
Mas de barra ele não tem nada. 
É uma fileira de fios que interconectam as peças do computador. 
como se fossem as veias do nosso corpo. 
Quando você envia uma tensão para um dos fios, 
dizemos que o estado do fio é ligado, sendo representado por 1. 
Se não há tensão, dizemos que o estado está desligado, representado por 0. 
É assim que enviamos os uns e os zeros. 
Soa familiar?
Na última aula, falamos sobre como os transistores nos ajudam a enviar tensões. 
Agora sabemos como os bits percorrem fisicamente o computador. 
O EDB vem em tamanhos diferentes, 8 bits, 16 bits, 32 bits e até 64 bits. 
Já imaginou ter 64 fios? 
É possível movimentar muito mais dados. 
Por enquanto, vamos ficar só com o EDB de 8 bits em nossos exemplos. 
Enviando 1 byte por vez. 
Certo, agora nossa CPU está recebendo um byte e precisa começar a trabalhar.
Reproduza o vídeo começando em :4:2 e siga a transcrição4:02
Dentro da CPU, há componentes conhecidos como registradores.
Reproduza o vídeo começando em :4:7 e siga a transcrição4:07
Eles nos permitem armazenar os dados com os quais a CPU trabalha. 
Se, por exemplo, 
nossa CPU quisesse adicionar dois números, um número seria armazenado no registrador A.
Reproduza o vídeo começando em :4:17 e siga a transcrição4:17
Outro número seria armazenado no registrador B. 
O resultado desses dois números seria armazenado no registrador C. 
Imagine que o registrador é uma das mesas de trabalho do nosso chef. 
Se ele tiver um lugar para trabalhar, pode começar a cozinhar. 
Para isso, ele usa um livro de tradução para traduzir o binário em tarefas 
que ele pode executar.
Reproduza o vídeo começando em :4:38 e siga a transcrição4:38
Vamos voltar um pouco. 
Lembre-se de que os programas são copiados para a RAM para que a CPU possa lê-los. 
A RAM é uma memória acessada aleatoriamente, 
permitindo que a CPU leia qualquer parte da RAM com a mesma rapidez que qualquer outra parte. 
Não enviamos dados da RAM pelo EDB. 
Haveria informação demais. 
A RAM pode conter milhões, até bilhões, de fileiras de dados. 
Apesar do exemplo do sanduíche, a maioria das receitas não são nada simples. 
Elas podem ter milhares de linhas. 
Queremos processá-las e não precisamos de nenhuma ordem específica. 
Como só podemos enviar uma linha de dados pelo EDB por vez, 
precisamos da ajuda de outro componente, o controlador de memória ou MCC. 
O MCC é uma ponte entre a CPU a RAM. 
Você pode pensar nele como um nervo do seu cérebro que conecta suas memórias. 
A CPU conversa com o MCC e diz: Ei, preciso das instruções 
para a terceira etapa desta receita. 
O MCC encontra as instruções para essa etapa na RAM, pega os dados 
os envia por meio do EDB. 
Há outro barramento. 
Mas não tem nada de barra no processo chamado de barramento de endereços. 
Ele conecta a CPU ao MCC, 
e envia a localização dos dados, não os dados em si. 
Então o MCC pega o endereço e procura os dados. 
Em seguida, os dados são enviados pelo EDB.
Reproduza o vídeo começando em :6:5 e siga a transcrição6:05
Acredite ou não, a RAM não é a forma mais rápida de mandarmos mais dados para nossa CPU 
para serem processados.
Reproduza o vídeo começando em :6:11 e siga a transcrição6:11
A CPU também usa algo conhecido como cache.
Reproduza o vídeo começando em :6:14 e siga a transcrição6:14
O cache é menor que a RAM, mas nos permite armazenar dados que usamos com frequência 
e podemos consultá-los rapidamente. 
Pense na RAM como uma geladeira cheia de comida. 
É fácil ter acesso a ela, mas leva tempo para tirar alguma coisa. 
Por outro lado, o cache é como as coisas que temos nos bolsos. 
Ele é usado para armazenar dados usados recentemente ou frequentemente. 
Existem três níveis diferentes de cache em uma CPU: L1, L2 e L3. 
O L1 é o cache menor e mais rápido. 
Se você estiver interessado em aprender mais sobre isso, 
você pode conferir a leitura suplementar que eu incluí logo após este vídeo. 
Então agora sabemos como a RAM interage com a CPU. 
Mas como é que a CPU sabe quando o conjunto de instruções termina e começa um novo? 
Nossa CPU tem um relógio interno que mantém seu funcionamento em sincronia. 
Ela se conecta a um fio especial chamado de fio do clock. 
Quando você envia ou recebe dados, ele envia tensão para esse fio do clock para avisar a CPU 
de que ela pode começar a fazer os cálculos. 
Pense nos nossos fios de clock como se fossem o tique-taque de um relógio. 
Para cada tique, a CPU faz um ciclo de operações. 
Quando você envia uma tensão para o fio do clock, chamamos isso de ciclo de clock. 
Se você tiver muitos dados que precisa processar em um comando, 
você precisará executar muitos ciclos de clock.
Reproduza o vídeo começando em :7:34 e siga a transcrição7:34
Você já viu uma CPU na loja com alguma descrição do tipo 3.4ghz? 
Este número refere-se à velocidade do clock da CPU. 
Ou seja, é o número máximo de ciclos de clock que ela consegue suportar em conjunto 
em determinado período de tempo. 
3.40 gigahertz equivale a 3,4 bilhões de ciclos por segundo. 
Isso é extremamente rápido. 
Mas não é porque pode chegar a esta velocidade, que ela de fato chega. 
Significa apenas que ela não consegue passar desse número. 
Mesmo assim, esse número não impede algumas pessoas de tentar. 
Existe uma forma de ultrapassar o número de ciclos de clock 
na CPU de quase qualquer dispositivo. 
Isso é chamado de overclocking 
e aumenta a frequência de ciclos de clock da CPU para realizar mais tarefas. 
Usa-se muito isso para aumentar o desempenho de CPUs inferiores. 
Imaginemos que você seja um gamer e queira ver melhores gráficos 
e ter menos atrasos durante o jogo. 
Você pode fazer um overclock da CPU durante o jogo, 
mas há desvantagens de fazer isso, como superaquecer sua CPU. 
Você pode ler mais sobre overclocking na próxima leitura suplementar.

https://en.wikipedia.org/wiki/CPU_cache
Cache da CPU
Da Wikipédia, a enciclopédia livre
Um cache de CPU é um cache de hardware usado pela unidade central de
processamento (CPU) de um computador para reduzir o custo médio (tempo ou energia) para
acessar dados da memória principal . [1] Um cache é uma memória menor e mais rápida,
localizada perto de um núcleo do processador , que armazena cópias dos dados de locais de
memória principal usados com frequência . A maioria das CPUs tem uma hierarquia de
vários níveis de cache (L1, L2, geralmente L3 e raramente até L4), com diferentes caches
específicos de instrução e específicos de dados no nível 1. [2] A memória cache é normalmente
implementada commemória estática de acesso aleatório (SRAM), nas CPUs modernas de longe a
maior parte delas por área de chip, mas a SRAM nem sempre é usada para todos os níveis (de
cache I ou D), ou mesmo qualquer nível, às vezes alguns últimos ou todos os níveis são
implementados com eDRAM .
Existem outros tipos de caches (que não são contados no "tamanho do cache" dos caches mais
importantes mencionados acima), como o Translation Lookaside Buffer (TLB) que faz parte
da unidade de gerenciamento de memória (MMU) que a maioria das CPUs possui.

Visão geral [ editar ]
Ao tentar ler ou escrever em um local da memória principal, o processador verifica se os dados
desse local já estão no cache. Nesse caso, o processador lerá ou gravará no cache em vez da
memória principal muito mais lenta.
Muitos desktops , servidores e CPUs industriais modernos têm pelo menos três caches
independentes:
Cache de instruções
Usado para acelerar a busca de instruções executáveis
Cache de dados
Usado para acelerar a busca e armazenamento de dados; o cache de dados geralmente é
organizado como uma hierarquia de mais níveis de cache (L1, L2, etc.; veja também caches de
vários níveis abaixo).
Buffer de consulta de tradução (TLB)
Usado para acelerar a tradução de endereço virtual para físico para instruções e dados
executáveis. Um único TLB pode ser fornecido para acesso a instruções e dados, ou um
separado TLB de instrução (ITLB) e dados TLB (DTLB) podem ser fornecidos. No entanto, o
cache TLB faz parte da unidade de gerenciamento de memória (MMU) e não está diretamente
relacionado aos caches da CPU.

História [ editar ]
Placa -mãe de um computador NeXTcube (1990). Na borda inferior da imagem, à esquerda do meio, está a CPU Motorola
68040 operada a 25 MHz com dois caches de nível 1 separados de 4 KiB cada no chip, um para as instruções e outro para
os dados. A placa não possui cache L2 externo.

Os primeiros exemplos de caches de CPU incluem o Atlas 2 [3] e o IBM System/360 Modelo
85 [4] na década de 1960. As primeiras CPUs que usavam um cache tinham apenas um nível de
cache; ao contrário do cache de nível 1 posterior, ele não foi dividido em L1d (para dados) e L1i
(para instruções). O cache L1 dividido começou em 1976 com a CPU IBM 801 , [5] [6] tornou-se
popular no final dos anos 1980 e, em 1997, entrou no mercado de CPU embarcada com o
ARMv5TE. Em 2015, até o SoC abaixo do dólar dividiu o cache L1. Eles também têm caches L2
e, para processadores maiores, caches L3 também. O cache L2 geralmente não é dividido e atua
como um repositório comum para o cache L1 já dividido. Cada núcleo de um processador multi-
coretem um cache L1 dedicado e geralmente não é compartilhado entre os núcleos. O cache L2 e
os caches de nível superior podem ser compartilhados entre os núcleos. O cache L4 é atualmente
incomum e geralmente está em (uma forma de) memória dinâmica de acesso aleatório (DRAM),
em vez de na memória estática de acesso aleatório (SRAM), em uma matriz ou chip separado
(excepcionalmente, a forma, eDRAM é usado para todos os níveis de cache, até L1). Esse
também foi o caso historicamente com o L1, enquanto chips maiores permitiram a integração dele
e geralmente de todos os níveis de cache, com a possível exceção do último nível. Cada nível
extra de cache tende a ser maior e otimizado de forma diferente.
Caches (como para RAM historicamente) geralmente são dimensionados em potências de: 2, 4,
8, 16 etc. KiB ; quando até tamanhos de MiB (ou seja, para não-L1 maiores), muito cedo o padrão
foi quebrado, para permitir caches maiores sem ser forçado ao paradigma de duplicação de
tamanho, com, por exemplo, Intel Core 2 Duo com cache de 3 MiB L2 em abril de 2008. Muito
mais tarde, no entanto, para tamanhos L1, que ainda contam apenas em um pequeno número de
KiB, no entanto, o IBM zEC12 de 2012 é uma exceção, para obter um cache de dados
invulgarmente grande de 96 KiB L1 para a época e, por exemplo, o IBM z13 com um Cache de
instruções de 96 KiB L1 (e cache de dados de 128 KiB L1), [7] e Intel Ice Lakeprocessadores
baseados em 2018, com cache de dados 48 KiB L1 e cache de instruções 48 KiB L1. Em 2020,
algumas CPUs Intel Atom (com até 24 núcleos) têm (vários de) tamanhos de cache de 4,5 MiB e
15 MiB. [8] [9]
Entradas de cache [ editar ]
Os dados são transferidos entre a memória e o cache em blocos de tamanho fixo, chamados
de linhas de cache ou blocos de cache . Quando uma linha de cache é copiada da memória para
o cache, uma entrada de cache é criada. A entrada do cache incluirá os dados copiados, bem
como o local de memória solicitado (chamado de tag).
Quando o processador precisa ler ou gravar um local na memória, ele primeiro verifica se há uma
entrada correspondente no cache. O cache verifica o conteúdo do local de memória solicitado em
qualquer linha de cache que possa conter esse endereço. Se o processador descobrir que o local
da memória está no cache, ocorreu um acerto do cache . No entanto, se o processador não
encontrar o local da memória no cache, ocorreu uma falta de cache . No caso de um acerto de
cache, o processador imediatamente lê ou grava os dados na linha de cache. Para uma falta de
cache, o cache aloca uma nova entrada e copia os dados da memória principal, então a
solicitação é atendida a partir do conteúdo do cache.
Políticas [ editar ]
Políticas de substituição [ editar ]
Artigo principal: Políticas de substituição de cache
Para liberar espaço para a nova entrada em uma falta de cache, o cache pode ter que remover
uma das entradas existentes. A heurística que ele usa para escolher a entrada a ser despejada é
chamada de política de substituição. O problema fundamental com qualquer política de
substituição é que ela deve prever qual entrada de cache existente tem menos probabilidade de
ser usada no futuro. Prever o futuro é difícil, então não existe um método perfeito para escolher
entre a variedade de apólices de substituição disponíveis. Uma política de substituição
popular, menos usada recentemente (LRU), substitui a entrada acessada menos recentemente.
Marcar alguns intervalos de memória como não armazenáveis em cache pode melhorar o
desempenho, evitando o armazenamento em cache de regiões de memória que raramente são
acessadas novamente. Isso evita a sobrecarga de carregar algo no cache sem reutilização. As
entradas de cache também podem ser desativadas ou bloqueadas, dependendo do contexto.
Escreva políticas [ editar ]
Ver artigo principal: Cache (computação) § Escrevendo políticas
Se os dados forem gravados no cache, em algum momento eles também deverão ser gravados
na memória principal; o tempo dessa gravação é conhecido como política de gravação. Em um
cache write-through , cada gravação no cache causa uma gravação na memória principal. Como
alternativa, em um cache write-back ou copy-back, as gravações não são imediatamente
espelhadas na memória principal e, em vez disso, o cache rastreia quais locais foram gravados,
marcando-os como sujos. Os dados nesses locais são gravados de volta na memória principal
somente quando esses dados são removidos do cache. Por esta razão, uma falta de leitura em
um cache write-back pode às vezes exigir dois acessos à memória para o serviço: um para
primeiro gravar o local sujo na memória principal e outro para ler o novo local da memória. Além
disso, uma gravação em um local de memória principal que ainda não foi mapeado em um cache
de write-back pode remover um local já sujo, liberando, assim, esse espaço de cache para o novo
local de memória.
Existem políticas intermediárias também. O cache pode ser gravado, mas as gravações podem
ser mantidas temporariamente em uma fila de armazenamento de dados, geralmente para que
vários armazenamentos possam ser processados juntos (o que pode reduzir as paradas de
barramento e melhorar a utilização do barramento).
Os dados armazenados em cache da memória principal podem ser alterados por outras entidades
(por exemplo, periféricos usando acesso direto à memória (DMA) ou outro núcleo em
um processador multi-core ), caso em que a cópia no cache pode ficar desatualizada ou
obsoleto. Como alternativa, quando uma CPU em um sistema multiprocessador atualiza os dados
no cache, as cópias dos dados nos caches associados a outras CPUs tornam-se obsoletas. Os
protocolos de comunicação entre os gerenciadores de cache que mantêm os dados consistentes
são conhecidos como protocolos de coerência de cache .
Desempenho do cache [ editar ]
A medição do desempenho do cache tornou-se importante nos últimos tempos, onde a diferença
de velocidade entre o desempenho da memória e o desempenho do processador está
aumentando exponencialmente. O cache foi introduzido para reduzir essa diferença de
velocidade. Portanto, saber o quão bem o cache é capaz de preencher a lacuna na velocidade do
processador e da memória torna-se importante, especialmente em sistemas de alto
desempenho. A taxa de acertos do cache e a taxa de falta do cache desempenham um papel
importante na determinação desse desempenho. Para melhorar o desempenho do cache, reduzir
a taxa de misses torna-se uma das etapas necessárias entre outras etapas. Diminuir o tempo de
acesso ao cache também aumenta seu desempenho.
CPU trava [ editar ]
O tempo gasto para buscar uma linha de cache da memória ( latência de leitura devido a uma
falta de cache) é importante porque a CPU ficará sem coisas para fazer enquanto espera pela
linha de cache. Quando uma CPU atinge esse estado, ela é chamada de travamento. À medida
que as CPUs se tornam mais rápidas em comparação com a memória principal, as paradas
devido a faltas de cache deslocam mais computação potencial; CPUs modernas podem executar
centenas de instruções no tempo necessário para buscar uma única linha de cache da memória
principal.
Várias técnicas foram empregadas para manter a CPU ocupada durante esse tempo, incluindo a
execução fora de ordem, na qual a CPU tenta executar instruções independentes após a
instrução que está aguardando os dados ausentes do cache. Outra tecnologia, usada por muitos
processadores, é o multithreading simultâneo (SMT), que permite que um thread alternativo use o
núcleo da CPU enquanto o primeiro thread aguarda a disponibilização dos recursos necessários
da CPU.

Associatividade [ editar ]

Uma ilustração de diferentes maneiras pelas quais os locais de memória podem ser armazenados em cache por locais de
cache específicos

Artigo principal: Políticas de colocação de cache


A política de posicionamento decide onde no cache uma cópia de uma entrada específica da
memória principal irá. Se a política de posicionamento for livre para escolher qualquer entrada no
cache para manter a cópia, o cache será chamado de totalmente associativo . No outro extremo,
se cada entrada na memória principal puder ficar em apenas um lugar no cache, o cache
é mapeado diretamente . Muitos caches implementam um compromisso no qual cada entrada na
memória principal pode ir para qualquer um dos N lugares no cache e é descrito como associativo
de conjunto de N vias. [10] Por exemplo, o cache de dados de nível 1 em um AMD Athlon é
associativo de conjunto bidirecional, o que significa que qualquer local específico na memória
principal pode ser armazenado em cache em qualquer um dos dois locais no cache de dados de
nível 1.
Escolher o valor certo de associatividade envolve uma compensação . Se houver dez locais para
os quais a política de posicionamento poderia ter mapeado um local de memória, então, para
verificar se esse local está no cache, dez entradas de cache devem ser procuradas. Verificar mais
lugares requer mais energia e área de chip e, potencialmente, mais tempo. Por outro lado, os
caches com mais associatividade sofrem menos erros (consulte erros de conflito ), de modo que a
CPU perde menos tempo lendo da memória principal lenta. A diretriz geral é que dobrar a
associatividade, de mapeado direto para bidirecional, ou de bidirecional para quadridirecional, tem
aproximadamente o mesmo efeito no aumento da taxa de acertos do que dobrar o tamanho do
cache. No entanto, aumentar a associatividade para mais de quatro não melhora tanto a taxa de
acerto, [11]e geralmente são feitos por outros motivos (consulte aliasing virtual ). Algumas CPUs
podem reduzir dinamicamente a associatividade de seus caches em estados de baixo consumo
de energia, o que funciona como uma medida de economia de energia. [12]
Em ordem de pior, mas simples, para melhor, mas complexo:

 Cache mapeado direto – bom tempo no melhor caso, mas imprevisível no pior caso
 Cache associativo de conjunto bidirecional
 Cache associativo enviesado bidirecional [13]
 Cache associativo de quatro vias
 Cache associativo de oito vias, uma escolha comum para implementações posteriores
 Cache associativo de conjunto de 12 vias, semelhante ao de oito vias
 Cache totalmente associativo – as melhores taxas de falha, mas prático apenas para um pequeno
número de entradas
Cache mapeado diretamente [ editar ]
Nesta organização de cache, cada localização na memória principal pode ir em apenas uma
entrada no cache. Portanto, um cache mapeado diretamente também pode ser chamado de
cache "associativo de conjunto unidirecional". Ele não possui uma política de posicionamento
como tal, pois não há escolha de qual conteúdo de entrada de cache remover. Isso significa que,
se dois locais forem mapeados para a mesma entrada, eles podem se chocar
continuamente. Embora mais simples, um cache mapeado diretamente precisa ser muito maior
do que um associativo para fornecer desempenho comparável e é mais imprevisível. Seja x o
número do bloco no cache, y o número do bloco da memória e n o número de blocos no cache,
então o mapeamento é feito com a ajuda da equação x = y modn .
Cache associativo de conjunto bidirecional [ editar ]
Se cada local na memória principal puder ser armazenado em cache em qualquer um dos dois
locais no cache, uma questão lógica é: qual dos dois? O esquema mais simples e comumente
usado, mostrado no diagrama à direita acima, é usar os bits menos significativos do índice do
local da memória como índice para a memória cache e ter duas entradas para cada índice. Um
benefício desse esquema é que as tags armazenadas no cache não precisam incluir aquela parte
do endereço da memória principal que está implícita no índice da memória cache. Como os tags
de cache têm menos bits, eles exigem menos transistores, ocupam menos espaço na placa de
circuito do processador ou no chip do microprocessador e podem ser lidos e comparados mais
rapidamente. Também LRUé especialmente simples, pois apenas um bit precisa ser armazenado
para cada par.
Execução especulativa [ editar ]
Uma das vantagens de um cache mapeado diretamente é que ele permite
uma especulação simples e rápida . Uma vez que o endereço tenha sido calculado, o único índice
de cache que pode ter uma cópia desse local na memória é conhecido. Essa entrada de cache
pode ser lida e o processador pode continuar a trabalhar com esses dados antes de terminar de
verificar se a tag realmente corresponde ao endereço solicitado.
A ideia de fazer com que o processador use os dados armazenados em cache antes que a
correspondência de tags seja concluída também pode ser aplicada a caches associativos. Um
subconjunto da tag, chamado de dica , pode ser usado para selecionar apenas uma das possíveis
entradas de cache mapeadas para o endereço solicitado. A entrada selecionada pela dica pode
então ser usada em paralelo com a verificação da tag completa. A técnica de dica funciona
melhor quando usada no contexto da tradução de endereços, conforme explicado abaixo.
Cache associativo enviesado bidirecional [ editar ]
Outros esquemas foram sugeridos, como o skewed cache , [13] onde o índice para o caminho 0 é
direto, como acima, mas o índice para o caminho 1 é formado com uma função hash . Uma boa
função hash tem a propriedade que aborda quais conflitos com o mapeamento direto tendem a
não entrar em conflito quando mapeados com a função hash e, portanto, é menos provável que
um programa sofra um número inesperadamente grande de erros de conflito devido a um acesso
patológico padrão. A desvantagem é a latência extra do cálculo da função hash. [14]Além disso,
quando chega a hora de carregar uma nova linha e despejar uma linha antiga, pode ser difícil
determinar qual linha existente foi usada menos recentemente, porque a nova linha entra em
conflito com dados em índices diferentes em cada caminho; O rastreamento LRU para caches
não distorcidos geralmente é feito por conjunto. No entanto, os caches associativos assimétricos
têm grandes vantagens sobre os conjuntos associativos convencionais. [15]
Cache pseudo-associativo [ editar ]
Um verdadeiro cache associativo por conjunto testa todas as formas possíveis simultaneamente,
usando algo como uma memória endereçável por conteúdo . Um cache pseudo-associativo testa
cada caminho possível, um de cada vez. Um cache hash-rehash e um cache associativo de
coluna são exemplos de um cache pseudo-associativo.
No caso comum de encontrar um hit na primeira maneira testada, um cache pseudo-associativo é
tão rápido quanto um cache mapeado diretamente, mas tem uma taxa de falta de conflito muito
menor do que um cache mapeado diretamente, mais próximo da taxa de falta de um cache
totalmente associativo. [14]
Cache de várias colunas [ editar ]
Comparando com um cache mapeado diretamente, um cache associativo definido tem um
número reduzido de bits para seu índice de conjunto de cache que mapeia para um conjunto de
cache, onde permanecem vários caminhos ou blocos, como 2 blocos para um cache associativo
definido de 2 vias e 4 blocos para um cache associativo de conjunto de 4 vias. Comparando com
um cache mapeado diretamente, os bits de índice de cache não utilizados tornam-se parte dos
bits de tag. Por exemplo, um cache associativo de conjunto de 2 vias contribui com 1 bit para o
tag e um cache associativo de conjunto de 4 vias contribui com 2 bits para o tag. A ideia básica
do cache multicoluna [16]é usar o índice definido para mapear para um conjunto de cache como um
cache associativo de conjunto convencional faz e usar os bits de marca adicionados para indexar
um caminho no conjunto. Por exemplo, em um cache associativo de conjunto de 4 vias, os dois
bits são usados para indexar a maneira 00, a maneira 01, a maneira 10 e a maneira 11,
respectivamente. Essa indexação de cache duplo é chamada de “mapeamento de localização
principal” e sua latência é equivalente a um acesso mapeado diretamente. Experimentos
extensivos em projeto de cache multicoluna [16]mostra que a taxa de acerto para os principais
locais chega a 90%. Se o mapeamento de cache entrar em conflito com um bloco de cache no
local principal, o bloco de cache existente será movido para outro caminho de cache no mesmo
conjunto, chamado de “localização selecionada”. Como o bloco de cache indexado recentemente
é um bloco usado mais recentemente (MRU), ele é colocado no local principal no cache de várias
colunas considerando a localidade temporal. Como o cache multicoluna é projetado para um
cache com alta associatividade, o número de caminhos em cada conjunto é alto; assim, é fácil
encontrar um local selecionado no conjunto. Um índice de localização selecionado por um
hardware adicional é mantido para a localização principal em um bloco de cache.
O cache multicoluna continua com uma alta taxa de acertos devido à sua alta associatividade e
tem uma baixa latência comparável a um cache mapeado diretamente devido à sua alta
porcentagem de acertos nas principais localizações. Os conceitos de localizações principais e
localizações selecionadas no cache multicoluna têm sido usados em vários projetos de cache no
chip ARM Cortex R , na memória cache de previsão de caminho da Intel , na memória
cache associativa multidirecional reconfigurável da IBM e na seleção dinâmica de modo de
substituição de cache do Oracle com base no endereço bits de tabulação .

Estrutura de entrada de cache [ editar ]


As entradas de linha de cache geralmente têm a seguinte estrutura:
marcação bloco de dados bits de bandeira

O bloco de dados (linha de cache) contém os dados reais buscados na memória


principal. A tag contém (parte de) o endereço dos dados reais buscados na memória principal. Os
bits de flag são discutidos abaixo .
O "tamanho" do cache é a quantidade de dados da memória principal que ele pode conter. Esse
tamanho pode ser calculado como o número de bytes armazenados em cada bloco de dados
vezes o número de blocos armazenados no cache. (Os bits de tag, flag e código de correção de
erro não estão incluídos no tamanho, [17] embora afetem a área física de um cache.)
Um endereço de memória efetivo que acompanha a linha de cache (bloco de memória) é dividido
( MSB para LSB ) na tag, no índice e no deslocamento do bloco. [18] [19]
marcação índice deslocamento do bloco

O índice descreve em qual conjunto de cache os dados foram colocados. O comprimento do


índice ébits para conjuntos de cache s .
O deslocamento do bloco especifica os dados desejados no bloco de dados armazenados na
linha do cache. Normalmente, o endereço efetivo está em bytes, portanto, o comprimento do
deslocamento do bloco ébits, onde b é o número de bytes por bloco de dados. A tag contém os
bits mais significativos do endereço, que são verificados em todas as linhas do conjunto atual (o
conjunto foi recuperado pelo índice) para ver se esse conjunto contém o endereço solicitado. Em
caso afirmativo, ocorre um hit de cache. O comprimento da tag em bits é o seguinte:
tag_length = address_length - index_length - block_offset_length

Alguns autores referem-se ao deslocamento do bloco simplesmente como "offset" [20] ou


"deslocamento". [21] [22]
Exemplo [ editar ]
O processador Pentium 4 original tinha um cache de dados L1 associativo de quatro vias de
8  KiB de tamanho, com blocos de cache de 64 bytes. Portanto, existem 8 KiB / 64 = 128 blocos
de cache. O número de conjuntos é igual ao número de blocos de cache dividido pelo número de
formas de associatividade, o que leva a 128 / 4 = 32 conjuntos e, portanto, 2 5  = 32 índices
diferentes. Existem 2 6  = 64 deslocamentos possíveis. Como o endereço da CPU tem 32 bits de
largura, isso implica 32 - 5 - 6 = 21 bits para o campo de tag.
O processador Pentium 4 original também tinha um cache integrado L2 associativo de oito vias
com tamanho de 256 KiB, com blocos de cache de 128 bytes. Isso implica 32 - 8 - 7 = 17 bits
para o campo tag. [20]
Bits de sinalização [ editar ]
Um cache de instrução requer apenas um bit de sinalizador por entrada de linha de cache: um bit
válido. O bit válido indica se um bloco de cache foi ou não carregado com dados válidos.
Ao ligar, o hardware define todos os bits válidos em todos os caches como "inválidos". Alguns
sistemas também definem um bit válido como "inválido" em outros momentos, como quando o
hardware de espionagem de barramento multimestre no cache de um processador ouve uma
transmissão de endereço de algum outro processador e percebe que certos blocos de dados no
cache local são agora obsoleto e deve ser marcado como inválido.
Um cache de dados normalmente requer dois bits de flag por linha de cache – um bit válido e
um bit sujo . Ter um bit sujo definido indica que a linha de cache associada foi alterada desde que
foi lida da memória principal ("suja"), o que significa que o processador gravou dados nessa linha
e o novo valor não se propagou até a memória principal .

Falta de cache [ editar ]
Um erro de cache é uma tentativa falha de ler ou gravar um dado no cache, o que resulta em um
acesso à memória principal com latência muito maior. Existem três tipos de faltas de cache: falta
de leitura de instrução, falta de leitura de dados e falta de gravação de dados.
Erros de leitura de cache de um cache de instrução geralmente causam o maior atraso, porque o
processador, ou pelo menos o thread de execução , precisa esperar (paralisar) até que a
instrução seja buscada na memória principal. Erros de leitura de cache de um cache
de dados geralmente causam um atraso menor, porque as instruções não dependentes da leitura
do cache podem ser emitidas e continuar a execução até que os dados sejam retornados da
memória principal e as instruções dependentes possam retomar a execução. A gravação do
cache falha em um dadoo cache geralmente causa o menor atraso, porque a gravação pode ser
enfileirada e há poucas limitações na execução de instruções subsequentes; o processador pode
continuar até que a fila esteja cheia. Para obter uma introdução detalhada aos tipos de falhas,
consulte medição e métrica de desempenho de cache .

Tradução de endereço [ editar ]
A maioria das CPUs de uso geral implementa alguma forma de memória virtual . Para resumir,
cada programa em execução na máquina vê seu próprio espaço de endereço simplificado , que
contém código e dados apenas para esse programa, ou todos os programas são executados em
um espaço de endereço virtual comum. Um programa é executado calculando, comparando,
lendo e escrevendo em endereços de seu espaço de endereço virtual, em vez de endereços de
espaço de endereço físico, tornando os programas mais simples e, portanto, mais fáceis de
escrever.
A memória virtual requer que o processador traduza os endereços virtuais gerados pelo programa
em endereços físicos na memória principal. A parte do processador que faz essa conversão é
conhecida como unidade de gerenciamento de memória (MMU). O caminho rápido através da
MMU pode executar as traduções armazenadas no Translation Lookaside Buffer (TLB), que é um
cache de mapeamentos da tabela de páginas do sistema operacional, tabela de segmentos ou
ambos.
Para os propósitos da presente discussão, existem três características importantes da tradução
de endereços:

 Latência: O endereço físico está disponível na MMU algum tempo, talvez alguns ciclos, depois
que o endereço virtual está disponível no gerador de endereço.
 Aliasing: vários endereços virtuais podem ser mapeados para um único endereço físico. A maioria
dos processadores garante que todas as atualizações naquele único endereço físico ocorrerão na
ordem do programa. Para cumprir essa garantia, o processador deve garantir que apenas uma
cópia de um endereço físico resida no cache a qualquer momento.
 Granularidade: o espaço de endereço virtual é dividido em páginas. Por exemplo, um espaço de
endereço virtual de 4  GiB pode ser dividido em 1.048.576 páginas de tamanho de 4 KiB, cada
uma das quais pode ser mapeada independentemente. Pode haver vários tamanhos de página
suportados; ver memória virtual para elaboração.
Um dos primeiros sistemas de memória virtual, o IBM M44/44X , exigia acesso a uma tabela de
mapeamento mantida na memória principal antes de cada acesso programado à memória
principal. [23] [NB 1] Sem caches, e com a memória da tabela de mapeamento rodando na mesma
velocidade da memória principal, isso reduz efetivamente a velocidade de acesso à memória pela
metade. Duas máquinas anteriores que usavam uma tabela de páginas na memória principal para
mapeamento, o IBM System/360 Modelo 67 e o GE 645 , tinham uma pequena memória
associativa como cache para acesso à tabela de páginas na memória. Ambas as máquinas eram
anteriores à primeira máquina com cache para memória principal, o IBM System/360 Modelo 85,
portanto, o primeiro cache de hardware usado em um sistema de computador não foi um cache
de dados ou instruções, mas sim um TLB.
Os caches podem ser divididos em quatro tipos, dependendo se o índice ou tag corresponde a
endereços físicos ou virtuais:

 Os caches fisicamente indexados e marcados fisicamente (PIPT) usam o endereço físico para o


índice e a marca. Embora isso seja simples e evite problemas com aliasing, também é lento, pois
o endereço físico deve ser pesquisado (o que pode envolver uma falta de TLB e acesso à
memória principal) antes que esse endereço possa ser pesquisado no cache.
 Os caches virtualmente indexados, virtualmente marcados (VIVT) usam o endereço virtual tanto
para o índice quanto para a marca. Esse esquema de cache pode resultar em pesquisas muito
mais rápidas, pois a MMU não precisa ser consultada primeiro para determinar o endereço físico
de um determinado endereço virtual. No entanto, o VIVT sofre de problemas de aliasing, onde
vários endereços virtuais diferentes podem se referir ao mesmo endereço físico. O resultado é
que esses endereços seriam armazenados em cache separadamente, apesar de se referirem à
mesma memória, causando problemas de coerência. Embora existam soluções para este
problema [26]eles não funcionam para protocolos de coerência padrão. Outro problema são os
homônimos, em que o mesmo endereço virtual é mapeado para vários endereços físicos
diferentes. Não é possível distinguir esses mapeamentos apenas observando o próprio índice
virtual, embora as possíveis soluções incluam: liberar o cache após uma troca de contexto , forçar
os espaços de endereço a não se sobreporem, marcar o endereço virtual com um ID de espaço
de endereço (ASID ). Além disso, há um problema que os mapeamentos de virtual para físico
podem mudar, o que exigiria a liberação de linhas de cache, pois os VAs não seriam mais
válidos. Todos esses problemas estarão ausentes se as tags usarem endereços físicos (VIPT).
 Virtualmente indexado, marcado fisicamenteOs caches (VIPT) usam o endereço virtual para o
índice e o endereço físico na tag. A vantagem sobre PIPT é menor latência, pois a linha de cache
pode ser consultada em paralelo com a tradução TLB, porém a tag não pode ser comparada até
que o endereço físico esteja disponível. A vantagem sobre o VIVT é que, como o tag possui o
endereço físico, o cache pode detectar homônimos. Teoricamente, o VIPT requer mais bits de
tags porque alguns dos bits de índice podem diferir entre os endereços virtual e físico (por
exemplo, bit 12 e acima para páginas de 4 KiB) e teriam que ser incluídos tanto no índice virtual
quanto no tag físico. Na prática, isso não é um problema porque, para evitar problemas de
coerência, os caches VIPT são projetados para não ter esses bits de índice (por
exemplo, limitando o número total de bits para o índice e o deslocamento do bloco para 12 para
páginas de 4 KiB); isso limita o tamanho dos caches VIPT ao tamanho da página vezes a
associatividade do cache.
 Os caches fisicamente indexados e marcados virtualmente (PIVT) são frequentemente
declarados na literatura como inúteis e inexistentes. [27] No entanto, o MIPS R6000 usa esse tipo
de cache como a única implementação conhecida. [28] O R6000 é implementado em lógica
acoplada ao emissor , que é uma tecnologia extremamente rápida, não adequada para grandes
memórias, como um TLB. O R6000 resolve o problema colocando a memória TLB em uma parte
reservada do cache de segundo nível com uma pequena "fatia" TLB de alta velocidade no chip. O
cache é indexado pelo endereço físico obtido da fatia TLB. No entanto, como o slice TLB apenas
traduz os bits de endereço virtual necessários para indexar o cache e não usa tags, podem
ocorrer falsos acessos ao cache, o que é resolvido marcando com o endereço virtual.
A velocidade dessa recorrência (a latência de carga ) é crucial para o desempenho da CPU e,
portanto, os caches de nível 1 mais modernos são virtualmente indexados, o que pelo menos
permite que a pesquisa de TLB do MMU prossiga em paralelo com a busca dos dados do cache
RAM.
Mas a indexação virtual não é a melhor escolha para todos os níveis de cache. O custo de lidar
com aliases virtuais cresce com o tamanho do cache e, como resultado, a maioria dos caches de
nível 2 e maiores são indexados fisicamente.
Os caches historicamente usaram endereços virtuais e físicos para as tags de cache, embora a
marcação virtual agora seja incomum. Se a pesquisa de TLB puder ser concluída antes da
pesquisa de RAM do cache, o endereço físico estará disponível a tempo para a comparação de
tags e não haverá necessidade de marcação virtual. Caches grandes, então, tendem a ser
marcados fisicamente, e apenas caches pequenos e de latência muito baixa são marcados
virtualmente. Nas recentes CPUs de uso geral, a marcação virtual foi substituída por vhints,
conforme descrito abaixo.
Problemas de homônimos e sinônimos [ editar ]
Um cache que depende de indexação e marcação virtual torna-se inconsistente depois que o
mesmo endereço virtual é mapeado em diferentes endereços físicos ( homônimo ), o que pode
ser resolvido usando o endereço físico para marcação ou armazenando o identificador de espaço
de endereço na linha de cache. No entanto, esta última abordagem não ajuda no problema
de sinônimos , em que várias linhas de cache acabam armazenando dados para o mesmo
endereço físico. A gravação em tais locais pode atualizar apenas um local no cache, deixando os
outros com dados inconsistentes. Esse problema pode ser resolvido usando layouts de memória
não sobrepostos para diferentes espaços de endereço ou, caso contrário, o cache (ou parte dele)
deve ser liberado quando o mapeamento é alterado. [29]
Tags virtuais e vhints [ editar ]
A grande vantagem dos tags virtuais é que, para caches associativos, eles permitem que a
correspondência do tag prossiga antes que a tradução virtual para física seja feita. No entanto,
sondagens de coerência e remoções apresentam um endereço físico para ação. O hardware
deve ter algum meio de converter os endereços físicos em um índice de cache, geralmente
armazenando tags físicas, bem como tags virtuais. Para efeito de comparação, um cache
marcado fisicamente não precisa manter tags virtuais, o que é mais simples. Quando um
mapeamento virtual para físico é excluído do TLB, as entradas de cache com esses endereços
virtuais precisam ser liberadas de alguma forma. Como alternativa, se as entradas de cache
forem permitidas em páginas não mapeadas pelo TLB, essas entradas deverão ser liberadas
quando os direitos de acesso nessas páginas forem alterados na tabela de páginas.
Também é possível para o sistema operacional garantir que nenhum alias virtual resida
simultaneamente no cache. O sistema operacional oferece essa garantia aplicando a coloração
da página, descrita a seguir. Alguns dos primeiros processadores RISC (SPARC, RS/6000)
adotaram essa abordagem. Ele não foi usado recentemente, pois o custo do hardware para
detectar e remover aliases virtuais caiu e a complexidade do software e a penalidade de
desempenho da coloração perfeita da página aumentaram.
Pode ser útil distinguir as duas funções das tags em um cache associativo: elas são usadas para
determinar qual caminho do conjunto de entrada deve ser selecionado e são usadas para
determinar se o cache atingiu ou não. A segunda função deve estar sempre correta, mas é
permitido que a primeira função adivinhe e obtenha a resposta errada ocasionalmente.
Alguns processadores (por exemplo, os primeiros SPARCs) possuem caches com tags virtuais e
físicas. As tags virtuais são usadas para seleção de caminho e as tags físicas são usadas para
determinar acertos ou erros. Esse tipo de cache aproveita a vantagem de latência de um cache
marcado virtualmente e a interface de software simples de um cache marcado fisicamente. No
entanto, tem o custo adicional de tags duplicadas. Além disso, durante o processamento de falha,
as formas alternativas da linha de cache indexada devem ser sondadas para aliases virtuais e
quaisquer correspondências removidas.
A área extra (e alguma latência) pode ser atenuada mantendo dicas virtuais com cada entrada de
cache em vez de tags virtuais. Essas dicas são um subconjunto ou hash do tag virtual e são
usadas para selecionar o caminho do cache do qual obter dados e um tag físico. Como um cache
marcado virtualmente, pode haver uma correspondência de dica virtual, mas incompatibilidade de
marca física; nesse caso, a entrada do cache com a dica correspondente deve ser removida para
que os acessos ao cache após o preenchimento do cache neste endereço tenham apenas uma
correspondência de dica. Como as dicas virtuais têm menos bits do que as tags virtuais,
distinguindo-as umas das outras, um cache com dicas virtuais sofre mais erros de conflito do que
um cache marcado virtualmente.
Talvez a redução final de dicas virtuais possa ser encontrada no Pentium 4 (núcleos Willamette e
Northwood). Nesses processadores, a dica virtual é efetivamente de dois bits e o cache é
associativo de conjunto de quatro vias. Efetivamente, o hardware mantém uma permutação
simples de endereço virtual para índice de cache, de modo que nenhuma memória endereçável
por conteúdo (CAM) é necessária para selecionar a correta das quatro maneiras buscadas.
Página para colorir [ editar ]
Ver artigo principal: Coloração de cache
Grandes caches indexados fisicamente (geralmente caches secundários) apresentam um
problema: o sistema operacional, e não o aplicativo, controla quais páginas colidem umas com as
outras no cache. Diferenças na alocação de página de um programa executado para o próximo
levam a diferenças nos padrões de colisão de cache, o que pode levar a diferenças muito
grandes no desempenho do programa. Essas diferenças podem dificultar a obtenção de um
tempo consistente e repetível para uma execução de benchmark.
Para entender o problema, considere uma CPU com um cache de nível 2 mapeado diretamente
indexado fisicamente de 1 MiB e páginas de memória virtual de 4 KiB. As páginas físicas
sequenciais são mapeadas para locais sequenciais no cache até que, após 256 páginas, o
padrão seja agrupado. Podemos rotular cada página física com uma cor de 0 a 255 para indicar
onde ela pode ir no cache. Locais em páginas físicas com cores diferentes não podem entrar em
conflito no cache.
Os programadores que tentam fazer uso máximo do cache podem organizar os padrões de
acesso de seus programas para que apenas 1 MiB de dados precise ser armazenado em cache a
qualquer momento, evitando assim perda de capacidade. Mas eles também devem garantir que
os padrões de acesso não tenham erros de conflito. Uma maneira de pensar sobre esse
problema é dividir as páginas virtuais que o programa usa e atribuir a elas cores virtuais da
mesma forma que as cores físicas eram atribuídas às páginas físicas antes. Os programadores
podem, então, organizar os padrões de acesso de seu código para que duas páginas com a
mesma cor virtual não sejam usadas ao mesmo tempo. Existe uma ampla literatura sobre essas
otimizações (por exemplo, otimização de ninho de loop ), em grande parte proveniente da
comunidade de computação de alto desempenho (HPC) .
O problema é que, embora todas as páginas em uso em determinado momento possam ter cores
virtuais diferentes, algumas podem ter as mesmas cores físicas. De fato, se o sistema operacional
atribuir páginas físicas a páginas virtuais de maneira aleatória e uniforme, é extremamente
provável que algumas páginas tenham a mesma cor física e, em seguida, os locais dessas
páginas colidam no cache (esse é o paradoxo do aniversário ).
A solução é fazer com que o sistema operacional tente atribuir diferentes páginas de cores físicas
a diferentes cores virtuais, uma técnica chamada coloração de página . Embora o mapeamento
real da cor virtual para a física seja irrelevante para o desempenho do sistema, os mapeamentos
estranhos são difíceis de acompanhar e têm poucos benefícios, portanto, a maioria das
abordagens para colorir páginas simplesmente tenta manter as cores físicas e virtuais iguais.
Se o sistema operacional puder garantir que cada página física seja mapeada para apenas uma
cor virtual, não haverá aliases virtuais e o processador poderá usar caches virtualmente
indexados sem a necessidade de sondagens de alias virtuais adicionais durante o tratamento de
erros. Como alternativa, o sistema operacional pode liberar uma página do cache sempre que ela
mudar de uma cor virtual para outra. Como mencionado acima, esta abordagem foi usada para
alguns dos primeiros projetos SPARC e RS/6000.
A técnica de coloração de página de software foi usada para particionar efetivamente o cache de
último nível compartilhado (LLC) em processadores multicore. [30] Esse gerenciamento LLC
baseado em sistema operacional em processadores multicore foi adotado pela Intel. [31]

Hierarquia de cache em um processador moderno [ editar ]


Hierarquia de memória de um servidor AMD Bulldozer

Os processadores modernos têm vários caches on-chip que interagem. A operação de um cache
específico pode ser completamente especificada pelo tamanho do cache, o tamanho do bloco do
cache, o número de blocos em um conjunto, a política de substituição do conjunto de cache e a
política de gravação do cache (write-through ou write-back). [20]
Embora todos os blocos de cache em um determinado cache sejam do mesmo tamanho e
tenham a mesma associatividade, normalmente os caches de "nível inferior" (chamados de cache
de nível 1) têm um número menor de blocos, tamanho de bloco menor e menos blocos em um
definidos, mas têm tempos de acesso muito curtos. Caches de "nível superior" (ou seja, nível 2 e
acima) têm números progressivamente maiores de blocos, tamanho de bloco maior, mais blocos
em um conjunto e tempos de acesso relativamente mais longos, mas ainda são muito mais
rápidos que a memória principal.
A política de substituição de entrada de cache é determinada por um algoritmo de
cache selecionado para ser implementado pelos projetistas do processador. Em alguns casos,
vários algoritmos são fornecidos para diferentes tipos de cargas de trabalho.
Caches especializados [ editar ]
As CPUs com pipeline acessam a memória de vários pontos no pipeline : busca de
instrução, conversão de endereço virtual para físico e busca de dados (consulte  o pipeline RISC
clássico ). O design natural é usar caches físicos diferentes para cada um desses pontos, de
modo que nenhum recurso físico precise ser agendado para atender a dois pontos no
pipeline. Assim, o pipeline naturalmente termina com pelo menos três caches separados
(instrução, TLB e dados), cada um especializado em sua função específica.
Cache da vítima [ editar ]
Ver artigo principal: Cache da vítima
Um cache de vítima é um cache usado para manter os blocos removidos de um cache da CPU
após a substituição. O cache da vítima fica entre o cache principal e seu caminho de recarga e
contém apenas os blocos de dados que foram removidos do cache principal. O cache da vítima
geralmente é totalmente associativo e destina-se a reduzir o número de erros de conflito. Muitos
programas comumente usados não requerem um mapeamento associativo para todos os
acessos. De fato, apenas uma pequena fração dos acessos à memória do programa requer alta
associatividade. O cache da vítima explora essa propriedade fornecendo alta associatividade
apenas para esses acessos. Foi introduzido por Norman Jouppi da DEC em 1990. [32]
A variante Crystalwell [33] da Intel de seus processadores Haswell introduziu um cache de nível
4 eDRAM de 128 MiB no pacote, que serve como um cache de vítima para o cache de nível 3 dos
processadores. [34] Na microarquitetura Skylake , o cache de nível 4 não funciona mais como um
cache de vítima. [35]
Cache de rastreamento [ editar ]
Ver artigo principal: Cache de rastreamento
Um dos exemplos mais extremos de especialização de cache é o cache de
rastreamento (também conhecido como cache de rastreamento de execução ) encontrado nos
microprocessadores Intel Pentium 4 . Um cache de rastreamento é um mecanismo para aumentar
a largura de banda de busca de instrução e diminuir o consumo de energia (no caso do Pentium
4) armazenando rastros de instruções que já foram buscadas e decodificadas. [36]
Um cache de rastreamento armazena instruções depois de terem sido decodificadas ou quando
são retiradas. Geralmente, as instruções são adicionadas aos caches de rastreamento em grupos
que representam blocos básicos individuais ou rastreamentos de instruções dinâmicas. O cache
de rastreamento do Pentium 4 armazena microoperações resultantes da decodificação de
instruções x86, fornecendo também a funcionalidade de um cache de microoperações. Tendo
isso, na próxima vez que uma instrução for necessária, ela não precisará ser decodificada em
micro-operações novamente. [37] : 63–68 
Cache de Coalescência de Gravação (WCC) [ editar ]
Write Coalescing Cache [38] é um cache especial que faz parte do cache L2 na microarquitetura
Bulldozer da AMD . Os armazenamentos de ambos os caches L1D no módulo passam pelo WCC,
onde são armazenados em buffer e reunidos. A tarefa do WCC é reduzir o número de gravações
no cache L2.
Cache de microoperação (μop ou uop) [ editar ]
Um cache de microoperações ( μop cache , uop cache ou UC ) [39] é um cache especializado
que armazena microoperações de instruções decodificadas, recebidas diretamente
dos decodificadores de instruções ou do cache de instruções. Quando uma instrução precisa ser
decodificada, o cache μop é verificado quanto à sua forma decodificada, que é reutilizada se
armazenada em cache; se não estiver disponível, a instrução é decodificada e armazenada em
cache.
Um dos primeiros trabalhos descrevendo o cache μop como um front-end alternativo para
a família de processadores Intel P6 é o artigo de 2001 "Micro-Operation Cache: A Power Aware
Frontend for Variable Instruction Length ISA" . [40] Mais tarde, a Intel incluiu caches μop em seus
processadores Sandy Bridge e em sucessivas microarquiteturas como Ivy Bridge e Haswell . [37] : 121–
123  [41]
 A AMD implementou um cache μop em sua microarquitetura Zen . [42]
A busca de instruções pré-decodificadas completas elimina a necessidade de decodificar
repetidamente instruções complexas de comprimento variável em microoperações mais simples
de comprimento fixo e simplifica o processo de previsão, busca, rotação e alinhamento de
instruções buscadas. Um cache μop efetivamente descarrega o hardware de busca e
decodificação, diminuindo assim o consumo de energia e melhorando o fornecimento de frontend
de microoperações decodificadas. O cache μop também aumenta o desempenho ao fornecer
microoperações decodificadas de forma mais consistente para o back-end e eliminar vários
gargalos na lógica de busca e decodificação da CPU. [40] [41]
Um cache μop tem muitas semelhanças com um cache de rastreamento, embora um cache μop
seja muito mais simples, proporcionando melhor eficiência de energia; isso o torna mais
adequado para implementações em dispositivos alimentados por bateria. A principal
desvantagem do cache de rastreamento, levando à sua ineficiência de energia, é a complexidade
de hardware necessária para sua decisão heurística sobre o armazenamento em cache e a
reutilização de rastreamentos de instruções criados dinamicamente. [43]
Cache de instrução de destino de ramificação [ editar ]
Um cache de destino de ramificação ou cache de instrução de destino de ramificação , o nome
usado em microprocessadores ARM , [44] é um cache especializado que contém as primeiras
instruções no destino de uma ramificação tomada. Isso é usado por processadores de baixa
potência que não precisam de um cache de instrução normal porque o sistema de memória é
capaz de fornecer instruções com rapidez suficiente para satisfazer a CPU sem um. No entanto,
isso só se aplica a instruções consecutivas em sequência; ainda são necessários vários ciclos de
latência para reiniciar a busca de instruções em um novo endereço, causando alguns ciclos de
bolha no pipeline após uma transferência de controle. Um cache de destino de ramificação
fornece instruções para esses poucos ciclos, evitando um atraso após a maioria das ramificações
tomadas.
Isso permite operação em velocidade total com um cache muito menor do que um cache de
instrução tradicional em tempo integral.
Cache inteligente [ editar ]
O cache inteligente é um método de cache de nível 2 ou nível 3 para vários núcleos de
execução, desenvolvido pela Intel .
O Smart Cache compartilha a memória cache real entre os núcleos de um processador multi-
core . Em comparação com um cache dedicado por núcleo, a taxa geral de falta de cache diminui
quando nem todos os núcleos precisam de partes iguais do espaço do
cache. Consequentemente, um único núcleo pode usar todo o cache de nível 2 ou nível 3, se os
outros núcleos estiverem inativos. [45] Além disso, o cache compartilhado torna mais rápido o
compartilhamento de memória entre diferentes núcleos de execução. [46]
Caches de vários níveis [ editar ]
Consulte também: Hierarquia de cache
Outra questão é a compensação fundamental entre a latência do cache e a taxa de
acertos. Caches maiores têm taxas de acerto melhores, mas latência mais longa. Para lidar com
essa compensação, muitos computadores usam vários níveis de cache, com pequenos caches
rápidos apoiados por caches maiores e mais lentos. Os caches de vários níveis geralmente
operam verificando o cache mais rápido, nível 1 ( L1 ), primeiro; se acertar, o processador
prossegue em alta velocidade. Se esse cache menor falhar, o próximo cache mais rápido, nível
2 ( L2 ), é verificado, e assim por diante, antes de acessar a memória externa.
Como a diferença de latência entre a memória principal e o cache mais rápido tornou-se maior,
alguns processadores começaram a utilizar até três níveis de cache no chip. Projetos sensíveis
ao preço usaram isso para puxar toda a hierarquia de cache no chip, mas na década de 2010
alguns dos projetos de maior desempenho voltaram a ter grandes caches fora do chip, que
geralmente são implementados em eDRAM e montados em um módulo multichip , como um
quarto nível de cache. Em casos raros, como na CPU de mainframe IBM z15 (2019), todos os
níveis até L1 são implementados por eDRAM, substituindo totalmente a SRAM (para cache, a
SRAM ainda é usada para registros). O Apple M1 baseado em ARM tem um cache L1 de 192 KiB
para cada um dos quatro núcleos de alto desempenho, uma quantidade extraordinariamente
grande; no entanto, os quatro núcleos de alta eficiência têm apenas 128 KiB.
Os benefícios dos caches L3 e L4 dependem dos padrões de acesso do aplicativo. Exemplos de
produtos que incorporam caches L3 e L4 incluem o seguinte:

 Alpha 21164 (1995) tem cache L3 off-chip de 1 a 64 MiB.


 O IBM POWER4 (2001) possui caches L3 off-chip de 32 MiB por processador, compartilhados
entre vários processadores.
 O Itanium 2 (2003) tem um cache on-die de nível 3 (L3) unificado de 6 MiB; o módulo Itanium
2 (2003) MX 2 incorpora dois processadores Itanium 2 junto com um cache compartilhado de 64
MiB L4 em um módulo multi-chip que era compatível com um processador Madison.
 O produto Xeon MP da Intel, codinome "Tulsa" (2006), apresenta 16 MiB de cache L3 on-die
compartilhado entre dois núcleos de processador.
 O AMD Phenom II (2008) tem cache L3 unificado on-die de até 6 MiB.
 O Intel Core i7 (2008) tem um cache L3 unificado on-die de 8 MiB que é inclusivo, compartilhado
por todos os núcleos.
 As CPUs Intel Haswell com Intel Iris Pro Graphics integrado têm 128 MiB de eDRAM atuando
essencialmente como um cache L4. [47]
Por fim, na outra ponta da hierarquia de memória, o próprio arquivo de registradores da CPU
pode ser considerado o menor e mais rápido cache do sistema, com a característica especial de
ser escalonado em software - normalmente por um compilador, já que aloca registradores para
armazenar valores recuperados da memória principal para, por exemplo, otimização de ninho de
loop . No entanto, com a renomeação de registradores , a maioria das atribuições de
registradores do compilador são realocadas dinamicamente pelo hardware em tempo de
execução em um banco de registradores, permitindo que a CPU quebre falsas dependências de
dados e, assim, diminuindo os riscos do pipeline.
Os arquivos de registro às vezes também têm hierarquia: o Cray-1 (por volta de 1976) tinha oito
registros "A" de endereço e oito registros "S" de dados escalares que eram geralmente
utilizáveis. Havia também um conjunto de 64 registros de endereço "B" e 64 registros de dados
escalares "T" que demoravam mais para acessar, mas eram mais rápidos que a memória
principal. Os registradores "B" e "T" foram fornecidos porque o Cray-1 não tinha um cache de
dados. (O Cray-1, no entanto, tinha um cache de instruções.)
Chips multi-core [ editar ]
Ao considerar um chip com vários núcleos , surge a dúvida se os caches devem ser
compartilhados ou locais para cada núcleo. A implementação do cache compartilhado
inevitavelmente apresenta mais fiação e complexidade. Mas então, ter um cache por chip , em
vez de núcleo , reduz muito a quantidade de espaço necessária e, portanto, pode-se incluir um
cache maior.
Normalmente, compartilhar o cache L1 é indesejável porque o aumento resultante na latência
faria cada núcleo funcionar consideravelmente mais lento do que um chip de núcleo único. No
entanto, para o cache de nível mais alto, o último chamado antes de acessar a memória, ter um
cache global é desejável por vários motivos, como permitir que um único núcleo use todo o
cache, reduzir a redundância de dados ao possibilitar diferentes processos ou threads para
compartilhar dados em cache e reduzindo a complexidade dos protocolos de coerência de cache
utilizados. [48] Por exemplo, um chip de oito núcleos com três níveis pode incluir um cache L1 para
cada núcleo, um cache L2 intermediário para cada par de núcleos e um cache L3 compartilhado
entre todos os núcleos.
O cache compartilhado de nível mais alto, que é chamado antes de acessar a memória,
geralmente é chamado de cache de último nível (LLC). Técnicas adicionais são usadas para
aumentar o nível de paralelismo quando o LLC é compartilhado entre vários núcleos, inclusive
dividindo-o em várias partes que abordam determinados intervalos de endereços de memória e
podem ser acessados independentemente. [49]
Separado versus unificado [ editar ]
Em uma estrutura de cache separada, as instruções e os dados são armazenados em cache
separadamente, o que significa que uma linha de cache é usada para armazenar instruções ou
dados, mas não ambos; vários benefícios foram demonstrados com buffers separados de
tradução de dados e instruções . [50] Em uma estrutura unificada, essa restrição não está presente
e as linhas de cache podem ser usadas para armazenar instruções e dados.
Exclusivo versus inclusivo [ editar ]
Os caches de vários níveis introduzem novas decisões de design. Por exemplo, em alguns
processadores, todos os dados no cache L1 também devem estar em algum lugar do cache
L2. Esses caches são chamados de estritamente inclusivos . Outros processadores (como o AMD
Athlon ) possuem caches exclusivos : os dados estão garantidos em no máximo um dos caches
L1 e L2, nunca em ambos. Ainda outros processadores (como o Intel Pentium II , III e 4 ) não
exigem que os dados no cache L1 também residam no cache L2, embora isso possa acontecer
com frequência. Não há um nome universalmente aceito para essa política intermediária; [51] [52] dois
nomes comuns são "não exclusivos" e "parcialmente inclusivos".
A vantagem dos caches exclusivos é que eles armazenam mais dados. Essa vantagem é maior
quando o cache L1 exclusivo é comparável ao cache L2 e diminui se o cache L2 for muitas vezes
maior que o cache L1. Quando o L1 erra e o L2 acerta em um acesso, a linha do cache de acerto
no L2 é trocada por uma linha no L1. Essa troca é um pouco mais trabalhosa do que apenas
copiar uma linha de L2 para L1, que é o que um cache inclusivo faz. [52]
Uma vantagem dos caches estritamente inclusivos é que, quando dispositivos externos ou outros
processadores em um sistema multiprocessador desejam remover uma linha de cache do
processador, eles precisam apenas que o processador verifique o cache L2. Nas hierarquias de
cache que não impõem a inclusão, o cache L1 também deve ser verificado. Como desvantagem,
existe uma correlação entre as associatividades das caches L1 e L2: se a cache L2 não tiver pelo
menos tantas vias quanto todas as caches L1 juntas, a associatividade efetiva das caches L1 é
restrita. Outra desvantagem do cache inclusivo é que sempre que há uma remoção no cache L2,
as (possivelmente) linhas correspondentes em L1 também precisam ser removidas para manter a
inclusão. Isso é bastante trabalhoso e resultaria em uma taxa de falha L1 mais alta. [52]
Outra vantagem dos caches inclusivos é que o cache maior pode usar linhas de cache maiores, o
que reduz o tamanho das tags do cache secundário. (Caches exclusivos exigem que ambos os
caches tenham linhas de cache do mesmo tamanho, de modo que as linhas de cache possam ser
trocadas em um L1 miss, L2 hit.) Se o cache secundário for uma ordem de grandeza maior que o
primário e os dados do cache forem um ordem de grandeza maior que as tags de cache, essa
área de tag salva pode ser comparável à área incremental necessária para armazenar os dados
do cache L1 no L2. [53]
Memória do bloco de notas [ editar ]
Ver artigo principal: memória Scratchpad
Memória Scratchpad (SPM), também conhecida como scratchpad, scratchpad RAM ou
armazenamento local na terminologia do computador, é uma memória interna de alta velocidade
usada para armazenamento temporário de cálculos, dados e outros trabalhos em andamento.
Exemplo: o K8 [ editar ]
Para ilustrar a especialização e o cache multinível, aqui está a hierarquia de cache do núcleo K8
na CPU AMD Athlon 64 . [54]

Hierarquia de cache do núcleo K8 na CPU AMD Athlon 64.

O K8 tem quatro caches especializados: um cache de instrução, um TLB de instrução , um TLB


de dados e um cache de dados. Cada um desses caches é especializado:

 O cache de instrução mantém cópias de linhas de memória de 64 bytes e busca 16 bytes a cada
ciclo. Cada byte neste cache é armazenado em dez bits em vez de oito, com os bits extras
marcando os limites das instruções (este é um exemplo de pré-decodificação). O cache tem
apenas proteção de paridade em vez de ECC , porque a paridade é menor e quaisquer dados
danificados podem ser substituídos por dados novos obtidos da memória (que sempre possui
uma cópia atualizada das instruções).
 A instrução TLB mantém cópias das entradas da tabela de páginas (PTEs). A busca de instrução
de cada ciclo tem seu endereço virtual traduzido através deste TLB em um endereço físico. Cada
entrada tem quatro ou oito bytes na memória. Como o K8 tem um tamanho de página variável,
cada um dos TLBs é dividido em duas seções, uma para manter os PTEs que mapeiam páginas
de 4 KiB e outra para manter os PTEs que mapeiam páginas de 4 MiB ou 2 MiB. A divisão
permite que o circuito de correspondência totalmente associativo em cada seção seja mais
simples. O sistema operacional mapeia diferentes seções do espaço de endereço virtual com
PTEs de tamanhos diferentes.
 A TLB de dados possui duas cópias que guardam entradas idênticas. As duas cópias permitem
dois acessos de dados por ciclo para converter endereços virtuais em endereços físicos. Como a
instrução TLB, esta TLB é dividida em dois tipos de entradas.
 O cache de dados mantém cópias de linhas de memória de 64 bytes. Ele é dividido em 8 bancos
(cada um armazenando 8 KiB de dados) e pode buscar dois dados de 8 bytes a cada ciclo, desde
que esses dados estejam em bancos diferentes. Existem duas cópias das tags, porque cada linha
de 64 bytes é distribuída entre todos os oito bancos. Cada cópia de tag lida com um dos dois
acessos por ciclo.
O K8 também possui caches de vários níveis. Existem TLBs de instrução e dados de segundo
nível, que armazenam apenas PTEs mapeando 4 KiB. Os caches de instruções e dados e os
vários TLBs podem ser preenchidos a partir do grande cache L2 unificado . Esse cache é
exclusivo para os caches de instrução e dados L1, o que significa que qualquer linha de 8 bytes
pode estar apenas em um dos caches de instrução L1, cache de dados L1 ou cache L2. No
entanto, é possível que uma linha no cache de dados tenha um PTE que também esteja em um
dos TLBs - o sistema operacional é responsável por manter os TLBs coerentes, liberando partes
deles quando as tabelas de páginas na memória são atualizadas.
O K8 também armazena em cache informações que nunca são armazenadas na memória -
informações de previsão. Esses caches não são mostrados no diagrama acima. Como é usual
para esta classe de CPU, o K8 tem predição de desvio bastante complexa , com tabelas que
ajudam a prever se os desvios são tomados e outras tabelas que preveem os alvos dos desvios e
saltos. Algumas dessas informações estão associadas a instruções, tanto no cache de instrução
de nível 1 quanto no cache secundário unificado.
O K8 usa um truque interessante para armazenar informações de previsão com instruções no
cache secundário. As linhas no cache secundário são protegidas contra corrupção acidental de
dados (por exemplo, por um ataque de partícula alfa ) por ECC ou paridade , dependendo se
essas linhas foram removidas dos caches primários de dados ou instruções. Como o código de
paridade ocupa menos bits do que o código ECC, as linhas do cache de instrução têm alguns bits
sobressalentes. Esses bits são usados para armazenar em cache as informações de previsão de
ramificação associadas a essas instruções. O resultado líquido é que o preditor de ramificação
tem uma tabela de histórico efetivo maior e, portanto, tem melhor precisão.
Mais hierarquias [ editar ]
Outros processadores têm outros tipos de preditores (por exemplo, o preditor de bypass de
armazenar para carregar no DEC Alpha 21264 ), e vários preditores especializados
provavelmente florescerão em processadores futuros.
Esses preditores são caches na medida em que armazenam informações que são caras para
computar. Parte da terminologia usada ao discutir os preditores é a mesma que para os caches
(falamos de um acerto em um preditor de ramificação), mas os preditores geralmente não são
considerados parte da hierarquia do cache.
O K8 mantém os caches de instrução e dados coerentes no hardware, o que significa que um
armazenamento em uma instrução que segue a instrução de armazenamento mudará a instrução
seguinte. Outros processadores, como os da família Alpha e MIPS, contam com software para
manter o cache de instruções coerente. Não é garantido que os armazenamentos apareçam no
fluxo de instruções até que um programa chame um recurso do sistema operacional para garantir
a coerência.
Marca RAM [ editar ]
Na engenharia da computação, uma tag RAM é usada para especificar qual das possíveis
localizações de memória está atualmente armazenada em um cache da CPU. [55] [56] Para um
projeto simples e mapeado diretamente, SRAM rápida pode ser usada. Caches
associativos superiores geralmente empregam memória endereçável por conteúdo .

Implementação [ editar ]
Ver artigo principal: algoritmos de cache
As leituras de cache são a operação de CPU mais comum que leva mais de um único ciclo. O
tempo de execução do programa tende a ser muito sensível à latência de um hit de cache de
dados de nível 1. Um grande esforço de design e, muitas vezes, energia e área de silício são
gastos para tornar os caches o mais rápido possível.
O cache mais simples é um cache de mapeamento direto indexado virtualmente. O endereço
virtual é calculado com um somador, a parte relevante do endereço extraída e usada para indexar
uma SRAM, que retorna os dados carregados. Os dados são alinhados por bytes em um
deslocador de bytes e, a partir daí, são desviados para a próxima operação. Não há necessidade
de nenhuma verificação de tag no loop interno – na verdade, as tags nem precisam ser
lidas. Posteriormente no pipeline, mas antes que a instrução de carregamento seja retirada, a tag
para os dados carregados deve ser lida e verificada no endereço virtual para garantir que houve
uma ocorrência no cache. Em caso de falha, o cache é atualizado com a linha de cache solicitada
e o pipeline é reiniciado.
Um cache associativo é mais complicado, porque alguma forma de tag deve ser lida para
determinar qual entrada do cache deve ser selecionada. Um cache N-way set-associative level-1
normalmente lê todos os N tags possíveis e N dados em paralelo, e então escolhe os dados
associados com o tag correspondente. Os caches de nível 2 às vezes economizam energia lendo
as tags primeiro, de modo que apenas um elemento de dados seja lido da SRAM de dados.

Leia o caminho para um cache associativo bidirecional

O diagrama adjacente destina-se a esclarecer a maneira como os vários campos do endereço


são usados. O bit de endereço 31 é o mais significativo, o bit 0 é o menos significativo. O
diagrama mostra as SRAMs, a indexação e a multiplexação para um cache de 4 KiB, conjunto
associativo de 2 vias, virtualmente indexado e virtualmente marcado com linhas de 64 bytes (B),
largura de leitura de 32 bits e endereço virtual de 32 bits.
Como o cache tem 4 KiB e 64 B linhas, há apenas 64 linhas no cache e lemos duas por vez de
uma Tag SRAM que tem 32 linhas, cada uma com um par de tags de 21 bits. Embora qualquer
função dos bits de endereço virtual 31 a 6 possa ser usada para indexar as tags e SRAMs de
dados, é mais simples usar os bits menos significativos.
Da mesma forma, como o cache é de 4 KiB e possui um caminho de leitura de 4 B, e lê duas vias
para cada acesso, o Data SRAM é de 512 linhas por 8 bytes de largura.
Um cache mais moderno pode ter 16 KiB, associação de conjunto de 4 vias, indexado
virtualmente, sugerido virtualmente e marcado fisicamente, com 32 linhas B, largura de leitura de
32 bits e endereços físicos de 36 bits. A recorrência do caminho de leitura para esse cache é
muito semelhante ao caminho acima. Em vez de tags, vhints são lidos e comparados com um
subconjunto do endereço virtual. Mais tarde no pipeline, o endereço virtual é traduzido em um
endereço físico pelo TLB e a tag física é lida (apenas uma, já que o vhint fornece qual caminho do
cache ler). Por fim, o endereço físico é comparado com a etiqueta física para determinar se
ocorreu um acerto.
Alguns projetos SPARC melhoraram a velocidade de seus caches L1 em alguns atrasos de porta,
colapsando o adicionador de endereço virtual nos decodificadores SRAM. Veja decodificador de
endereçamento de soma .
História [ editar ]
A história inicial da tecnologia de cache está intimamente ligada à invenção e ao uso da memória
virtual. [ carece de fontes ] Devido à escassez e ao custo das memórias de semicondutores, os primeiros
computadores mainframe da década de 1960 usavam uma hierarquia complexa de memória
física, mapeada em um espaço plano de memória virtual usado por programas. As tecnologias de
memória abrangeriam semicondutores, núcleo magnético, tambor e disco. A memória virtual vista
e usada pelos programas seria plana e o cache seria usado para buscar dados e instruções na
memória mais rápida antes do acesso do processador. Estudos extensivos foram feitos para
otimizar os tamanhos de cache. Verificou-se que os valores ideais dependem muito da linguagem
de programação usada, com Algol precisando dos menores e Fortran e Cobol precisando dos
maiores tamanhos de cache. [disputado - discutir ]
Nos primórdios da tecnologia de microcomputadores, o acesso à memória era apenas um pouco
mais lento do que o acesso aos registradores . Mas desde a década de 1980 [57] a lacuna de
desempenho entre o processador e a memória vem crescendo. Os microprocessadores
avançaram muito mais rápido que a memória, especialmente em termos de frequência de
operação , de modo que a memória se tornou um gargalo de desempenho . Embora fosse
tecnicamente possível ter toda a memória principal tão rápida quanto a CPU, um caminho
economicamente mais viável foi escolhido: usar muita memória de baixa velocidade, mas também
introduzir uma pequena memória cache de alta velocidade para aliviar a lacuna de
desempenho. Isso forneceu uma ordem de magnitude a mais de capacidade - pelo mesmo preço
- com apenas um desempenho combinado ligeiramente reduzido.
Primeiras implementações de TLB [ editar ]
Os primeiros usos documentados de um TLB foram no GE 645 [58] e no IBM 360/67 , [59] ambos os
quais usavam uma memória associativa como TLB.
Primeiro cache de instrução [ editar ]
O primeiro uso documentado de um cache de instrução foi no CDC 6600 . [60]
Primeiro cache de dados [ editar ]
O primeiro uso documentado de um cache de dados foi no IBM System/360 Modelo 85. [61]
Em microprocessadores de 68k [ editar ]
O 68010 , lançado em 1982, possui um "modo de loop" que pode ser considerado um cache de
instruções minúsculo e especial que acelera loops que consistem em apenas duas
instruções. O 68020 , lançado em 1984, substituiu-o por um típico cache de instruções de 256
bytes, sendo o primeiro processador da série 68k a apresentar memória cache on-chip
verdadeira.
O 68030 , lançado em 1987, é basicamente um núcleo 68020 com um cache de dados adicional
de 256 bytes, uma unidade de gerenciamento de memória on-chip (MMU), uma redução de
processo e modo de rajada adicionado para os caches. O 68040 , lançado em 1990, dividiu os
caches de instruções e dados de quatro kilobytes cada. O 68060 , lançado em 1994, tem o
seguinte: cache de dados de 8 KiB (associativo de quatro vias), cache de instruções de 8 KiB
(associativo de quatro vias), buffer de instrução FIFO de 96 bytes, cache de ramificação de 256
entradas e cache de ramificação de 64 entradas. cache de tradução de endereço buffer MMU
(associativo de quatro vias).
Em microprocessadores x86 [ editar ]

Exemplo de placa-mãe com microprocessador i386 (33 MHz), cache de 64 KiB (25 ns; 8 chips no canto inferior esquerdo),
DRAM de 2 MiB (70 ns; 8 SIMMs à direita do cache) e um controlador de cache ( Austek A38202; à direita do processador)

Como os microprocessadores x86 atingiram taxas de clock de 20 MHz e acima no 386 ,


pequenas quantidades de memória cache rápida começaram a ser apresentadas em sistemas
para melhorar o desempenho. Isso porque a DRAM usada para a memória principal tinha latência
significativa, de até 120 ns, além de ciclos de atualização. O cache foi construído a partir de
células de memória SRAM mais caras, mas significativamente mais rápidas, que na época tinham
latências em torno de 10–25 ns. Os primeiros caches eram externos ao processador e
normalmente localizados na placa-mãe na forma de oito ou nove dispositivos DIP colocados em
soquetes para habilitar o cache como um recurso opcional extra ou de atualização.
Algumas versões do processador Intel 386 podem suportar 16 a 256 KiB de cache externo.
Com o processador 486 , um cache de 8 KiB foi integrado diretamente na matriz da CPU. Esse
cache foi denominado cache de nível 1 ou L1 para diferenciá-lo do cache mais lento da placa-
mãe ou do nível 2 (L2). Esses caches na placa-mãe eram muito maiores, sendo o tamanho mais
comum de 256 KiB. A popularidade do cache na placa-mãe continuou durante a era Pentium
MMX , mas tornou-se obsoleta com a introdução do SDRAM e a crescente disparidade entre as
taxas de clock do barramento e as taxas de clock da CPU, o que fez com que o cache da placa-
mãe fosse apenas um pouco mais rápido que a memória principal.
O próximo desenvolvimento na implementação de cache nos microprocessadores x86 começou
com o Pentium Pro , que trouxe o cache secundário para o mesmo pacote do microprocessador,
com a mesma freqüência do microprocessador.
Os caches na placa-mãe desfrutaram de popularidade prolongada graças aos processadores
AMD K6-2 e AMD K6-III que ainda usavam o soquete 7 , que era usado anteriormente pela Intel
com caches na placa-mãe. O K6-III incluía cache L2 on-die de 256 KiB e aproveitou o cache on-
board como um cache de terceiro nível, denominado L3 (placas-mãe com até 2 MiB de cache on-
board foram produzidas). Depois que o soquete 7 se tornou obsoleto, o cache da placa-mãe
desapareceu dos sistemas x86.
Os caches de três níveis foram usados novamente primeiro com a introdução de vários núcleos
de processador, onde o cache L3 foi adicionado à matriz da CPU. Tornou-se comum que os
tamanhos totais de cache sejam cada vez maiores nas gerações de processadores mais recentes
e, recentemente (a partir de 2011), não é incomum encontrar tamanhos de cache de nível 3 de
dezenas de megabytes. [62]
A Intel introduziu um cache de pacote de nível 4 com
a microarquitetura Haswell . Crystalwell [33] As CPUs Haswell, equipadas com a variante GT3e dos
gráficos Iris Pro integrados da Intel, apresentam efetivamente 128 MiB de DRAM incorporada
( eDRAM ) no mesmo pacote. Esse cache L4 é compartilhado dinamicamente entre a GPU e a
CPU on-die e serve como um cache vítima para o cache L3 da CPU. [34]
Em microprocessadores ARM [ editar ]
A CPU Apple M1 tem cache L1 de instrução de 128 ou 192 KiB para cada núcleo (importante
para desempenho de latência/single-thread), dependendo do tipo de núcleo. Este é um cache L1
incomumente grande para qualquer tipo de CPU (não apenas para um laptop); o tamanho total da
memória cache não é extraordinariamente grande (o total é mais importante para a taxa de
transferência) para um laptop, e tamanhos totais muito maiores (por exemplo, L3 ou L4) estão
disponíveis nos mainframes da IBM.
Pesquisa atual [ editar ]
Os primeiros projetos de cache concentravam-se inteiramente no custo direto do cache e
da RAM e na velocidade média de execução. Projetos de cache mais recentes também
consideram eficiência de energia , tolerância a falhas e outros objetivos. [63] [64]
Existem várias ferramentas disponíveis para arquitetos de computador para ajudar a explorar
compensações entre o tempo de ciclo do cache, energia e área; o simulador de cache CACTI [65] e
o simulador de conjunto de instruções SimpleScalar são duas opções de código aberto.
Cache multiportado [ editar ]
Um cache multiportado é um cache que pode atender a mais de uma solicitação por vez. Ao
acessar um cache tradicional, normalmente usamos um único endereço de memória, enquanto
em um cache multiportas podemos solicitar N endereços por vez – onde N é o número de portas
que se conectam através do processador e do cache. O benefício disso é que um processador
em pipeline pode acessar a memória de diferentes fases em seu pipeline. Outro benefício é que
ele permite o conceito de processadores superescalares por meio de diferentes níveis de cache.

https://www.digitaltrends.com/computing/how-to-
overclock-your-cpu/
Parabéns! Você foi aprovado!

Nota recebida 100%

Para ser aprovado 80% ou superior

Ir para o próximo item

1.
Pergunta 1

Onde os processador armazena seus cálculos?

Processador

Barramento de dados externo

Registradores

Binário

Correto

Correto! Quando o processador faz a computação, ele armazena as informações nos registradores primeiro.

2.
Pergunta 2
Quais mecanismos usamos para transportar os dados binários e os endereços de memória? Marque todas as
respostas possíveis.

DBus

Barramento de dados externo

Correto

Você acertou! O EDB é usado para transportar os dados binários e o barramento de endereços é usado para
transportar os endereços de memória.

Barramento na entrada da boate

Barramento de endereços

Correto

Você acertou! O EDB é usado para transportar os dados binários e o barramento de endereços é usado para
transportar os endereços de memória.

CPU
Se alguém lhe pedisse para calcular a raiz quadrada de 5.439.493,
você faria as contas na mão?
A menos que você ame problemas matemáticos,
você provavelmente usaria uma calculadora.
E o binário?
Você provavelmente não calcularia o binário na mão.
Há uma calculadora muito poderosa
dentro do seu computador que processa o binário para nós.
Já falamos sobre essa calculadora com detalhes. Você sabe qual é ela?
É a CPU, o cérebro do computador.
Neste vídeo, abordaremos os aspectos mais práticos da CPU.
Lembra-se daquele livro de transição sobre o qual falei na última aula?
A CPU utiliza-o para traduzir e executar funções com nossos dados.
Este livro de transição é chamado de conjunto de instruções,
que é literalmente uma lista de instruções que nossa CPU é capaz de executar.
Funções como adicionar, subtrair 
copiar dados são instruções que a CPU pode executar. 
Cada programa do seu computador, embora extremamente complexo, 
é dividido em instruções muito pequenas e simples encontradas no conjunto de instruções. 
Os conjuntos de instruções são codificados no processador. 
Portanto, os diferentes fabricantes de CPU podem usar conjuntos de instruções diferentes. 
Mas eles geralmente executam as mesmas funções. 
Da mesma forma que as marcas de carros constroem seus motores 
de jeitos diferentes, mas todos fazem a mesma função. 
Você provavelmente trabalha com hardware 
enquanto especialista de suporte de TI, substituindo discos rígidos estragados, 
fazendo upgrades de pentes de RAM e instalando placas de vídeo. 
Então você precisa conhecer o que está no mercado. 
Você provavelmente já ouviu falar dos famosos fabricantes de CPU 
e de chipsets como Intel, AMD e Qualcomm. 
Esses fabricantes de CPU usam nomes diferentes de peças para diferenciar seus processadores. 
É como o Intel Core i7, AMD Athlon, 
Snapdragon 810, Apple A8 e outros. 
Agora, ao ouvir esses termos, 
você saberá o que eles significam. 
Cada um desses fabricantes de CPU tem seus pontos fortes e fracos. 
Se você estiver interessado em saber por que algumas CPUs são mais famosas que outras, 
você pode conferir a próxima leitura suplementar. 
Ao selecionar sua CPU, 
você precisa ter certeza de que ela é compatível com sua placa-mãe. 
A placa de circuito que agrega todos os seus componentes. Atenção. 
Não dá para comprar um monte de peças e esperar que elas funcionem juntas. 
Existem diferentes formas de encaixe das CPUs nas placas-mãe usando soquetes diferentes. 
Sua CPU pode ter muitos pinos minúsculos protuberantes 
ou ter pontos de contato que parecem um pontilhado. 
Dependendo da sua placa-mãe, 
você terá que confirmar que essas CPUs se encaixam corretamente no soquete. 
Existem atualmente dois tipos principais de soquetes para CPUs, 
o Land Grid Array, também conhecido como LGA, 
eo Pin Grid Array,
também conhecido como PGA. 
No soquete LGA, 
como este aqui, há pinos que saem da placa-mãe. 
O tamanho do soquete pode variar. 
Por isso, veja sempre se a CPU e o soquete são compatíveis antes de comprar. 
Ao comprar a CPU ou a placa-mãe, 
estará na caixa o tipo de soquete que é usado. 
Verifique que o soquete da CPU e da placa-mãe coincidem. 
Se não estiver descrito na caixa, 
você pode ir ao site do fabricante, onde há geralmente uma lista 
dos tipos de CPUs que são compatíveis com a placa-mãe. 
O outro tipo de soquete é o PGA, 
em que os pinos estão localizados no próprio processador. 
Ao instalarmos nossa CPU, 
precisamos tomar medidas para mantê-la em baixa temperatura. 
Como ela trabalha muito, 
tende a superaquecer. 
Não podemos esquecer de incluir também um dissipador de calor, 
que tira calor do processador e o dissipa por meio de uma ventoinha para outro meio. 
Há uma última coisa que quero destacar sobre as CPUs. 
Ao comprar uma CPU, você verá que ela tem arquitetura de 32 ou 64 bits. 
O que isso significa? Bem, sabemos que podemos processar 8 bits no binário. 
Agora, imagine se pudermos processar com 32 ou até 64 bits. 
As CPUs que possuem arquitetura de 32 ou 64 bits 
podem manipular essa quantidade de dados com eficiência. 
Você pode ler mais sobre as diferenças 
entre a arquitetura de 32 bits e a de 64 bits na próxima leitura. 
Por enquanto, o recado principal 
é que a CPU é uma das peças mais importantes do computador.
Então temos que ter certeza de que ela é compatível
com todos os componentes e que funciona bem para as nossas necessidades de computação.

Leitura complementar sobre arquitetura de CPU


https://support.microsoft.com/en-us/windows/32-
bit-and-64-bit-windows-frequently-asked-
questions-c6ca9541-8dce-4d48-0415-
94a3faa2e13d
_________________________________________________________________________________________
https://en.wikipedia.org/wiki/64-
bit_computing#32-bit_vs_64-bit%E2%80%A6
Memória RAM
Vamos falar sobre a RAM, a memória de curto prazo dos computadores. 
Usamos a RAM para armazenar dados para acesso rápido. 
Esses dados mudam o tempo todo, por isso não são permanentes. 
Quase toda a RAM é volátil, 
ou seja, quando desligamos as máquinas, 
os dados armazenados na RAM são apagados. 
Lembre-se de que o computador é composto por programas. 
Para executar um programa, 
precisamos fazer uma cópia dele na RAM para que o processador o processe. 
Um telefone ou laptop que afirma ter 16 GB de RAM, 
significa que ele pode executar até 16 GB de programas, 
ou seja, você pode executar muitos programas ao mesmo tempo. 
Quando você digita um documento, você está usando a RAM. 
Se você já teve a infelicidade de trabalhar 
em uma importante apresentação e a energia caiu, 
você sabe a tristeza que é ver que seu trabalho foi perdido. 
É pura chateação. Isso acontece com qualquer coisa que tenha RAM, até os videogames. 
Você já progrediu muito em um jogo sem salvar 
e, quando estava quase chegando ao local de salvar, 
a energia caiu e todo o progresso que você fez se perdeu? 
Não é nada divertido. Você passa mais uma hora decidindo 
se vale a pena começar de novo ou se para de jogar. 
Não que isso tenha acontecido comigo, 
foi com um amigo meu. 
Tudo isso acontece porque a RAM apaga os dados quando é desligada. 
Existem muitos tipos de RAM. 
E a comumente encontrada nos computadores 
é a DRAM ou memória de acesso aleatório dinâmica. 
Quando não há nada sendo enviado para a DRAM, 
ela armazena cada bit em um capacitor microscópico. 
E a carga ou descarga é representada por um ou zero. 
Esses semicondutores são colocados em chips que estão na RAM e armazenam os dados. 
Também existem diferentes tipos de pentes de memória em que os chips DRAM podem ser colocados. 
Os pentes mais modernos, DIMM, 
que significa Dual Inline Memory Module, 
têm diferentes tamanhos de pinos. 
Devo alertar que, de fato, não compramos RAM com base no número de chips DRAM que ela tem. 
Elas são classificadas pela capacidade de RAM por peça, 
como um pente de 8 GB de RAM. 
Depois que a DRAM foi criada, 
os fabricantes de RAM criaram algo chamado de SDRAM. que significa Synchronous DRAM. 
Este tipo de RAM é sincronizado 
com a velocidade de clock dos sistemas, permitindo um processamento mais rápido dos dados. 
Nos sistemas de hoje, usamos outro tipo de RAM, 
chamado de SDRAM de taxa de dados dupla, 
ou DDR SDRAM, para encurtar. 
Muitas pessoas chamam essa RAM de DDR, nome mais curto ainda. 
Houve muitas iterações da DDR, como DDR1, 
DDR2, DDR3 e, agora, DDR4. 
A DDR é mais rápida, consome menos energia 
e tem uma capacidade maior do que as versões anteriores de SDRAM. 
A versão mais recente, DDR4, 
é o tipo mais rápido de memória de curto prazo disponível para seu computador. 
Uma RAM mais rápida significa que os programas podem ser executados 
mais rapidamente e que mais programas podem ser rodados juntos. 
Tenha em mente que qualquer memória RAM que você usar 
precisará de uma placa-mãe compatível com o número 
de pinos alinhados com os slots de RAM da placa-mãe. 
Assim como com o processador, 
confirme que sua placa-mãe é compatível com a RAM que você comprar. 
Em seguida, vamos analisar com detalhes as placas-mãe.

Placa-mãe
A placa-mãe é a base que unifica nosso computador. 
Ela nos permite expandir as funcionalidades do computador adicionando placas de expansão. 
Ela direciona a energia da fonte de alimentação 
e permite que as diferentes peças do computador se comuniquem entre si. 
Em poucas palavras, ela manda mesmo.
Reproduza o vídeo começando em ::30 e siga a transcrição0:30
Toda placa-mãe tem algumas características essenciais. 
A primeira é o chipset, 
que decide como os componentes conversam uns aos outros em nossa máquina. 
O chipset da placa-mãe é composto por dois chips. 
Um é chamado de ponte norte, que interconecta itens como a RAM 
e as placas de vídeo. 
O outro chip é a ponte sul, que mantém nossos controladores 
de entrada e de saída, como discos rígidos e dispositivos USB que enviam e recebem dados.
Reproduza o vídeo começando em ::59 e siga a transcrição0:59
Em processadores modernos, a ponte norte é diretamente integrada ao processador, 
ou seja, não é um chipset de ponte norte separado. 
O chipset é um componente essencial da nossa placa-mãe 
que nos permite gerenciar dados do processador, a RAM e os periféricos. 
Os periféricos são dispositivos externos que conectamos ao nosso computador, 
como mouse, teclado e um monitor. 
Você aprenderá mais sobre os periféricos em outra aula. 
Além dos chipsets, as placas-mãe têm outra característica essencial, 
que permite o uso de slots de expansão. 
Os slots de expansão nos dão a possibilidade de ampliar as funcionalidades 
do nosso computador. 
Se você quiser melhorar sua placa de vídeo, você pode comprar uma 
e instalá-la na sua placa-mãe por meio do slot de expansão. 
O padrão de barramento de expansão atualmente é o PCI Express, 
ou seja, componente periférico de interconexão expressa. 
O barramento PCIe parece um slot na placa-mãe 
e a placa de expansão base PCIe parece uma placa de circuito menor.
Reproduza o vídeo começando em :1:58 e siga a transcrição1:58
O último componente das placas-mãe que vamos abordar é o fator de forma. 
Existem diferentes tamanhos de placas-mãe disponíveis hoje. 
Estes tamanhos (ou fatores de forma) determinam a quantidade de itens que podemos colocar nela 
a quantidade de espaço que teremos. 
O fator de forma mais comum 
das placas-mãe é o ATX, que significa tecnologia avançada estendida. 
A ATX também vem em tamanhos diferentes. 
Nos desktops, você normalmente vê ATXs de tamanho completo. 
Se você não quiser usar o fator de forma ATX, você pode usar uma ITX, ou seja, 
tecnologia da informação estendida. 
Essas placas ATX são muito menores. 
Por exemplo, a Intel Nook usa uma variação da placa ITX que vem 
em três tamanhos de placa, Mini-ITX, Nano-ITX e Pico-ITX. 
Ao montar seu computador, você precisa ter em mente o tipo de fator de forma 
que você quer. 
Você quer montar algo pequeno que não precisa lidar com muita carga?
Reproduza o vídeo começando em :2:55 e siga a transcrição2:55
Ou você quer uma estação de trabalho potente na qual você possa adicionar muitas funcionalidades? 
O fator de forma também desempenha um papel no tipo de slots de expansão 
que você usar. 
O entendimento das placas-mãe e suas características pode ser uma grande vantagem 
ao consertar problemas de hardware, já que coisas como o tipo de módulo RAM 
ou de soquete do processador dependem do tipo de placa-mãe para que se encaixem. 
Digamos que você esteja atendendo a um chamado de um usuário que está com problemas de vídeo. 
Você não precisa ir até a mesa do usuário só para perceber que a placa enorme 
substituta não serve na placa-mãe que o computador usa. 
Você aprenderá mais sobre atendimento ao cliente 
e táticas de solução de problemas mais adiante neste curso. 
Mas, por enquanto, confirme que sua placa-mãe consegue acomodar as peças de substituição 
ou o upgrade que você quer implementar.

Armazenamento
Então, antes de falar sobre armazenamento, precisamos aparar algumas arestas. 
Estou falando de conceitos como gigabytes, bits, etc. 
De fato, não conversamos nada sobre o que essas métricas significam. 
Desculpe, acho que acabei atropelando os assuntos. 
Como você deve ter adivinhado, esses termos se referem a tamanhos de dados. 
A menor unidade de armazenamento de dados é um bit. 
O bit consegue armazenar um dígito binário, então ele pode armazenar um ou zero. 
A segunda maior unidade de armazenamento é chamada de byte, que é composta por 8 bits. 
Um único byte pode conter uma letra, um número ou um símbolo. 
A segunda maior unidade é chamada de kibibyte, 
mas geralmente usamos o termo kilobyte.
Reproduza o vídeo começando em ::53 e siga a transcrição0:53
Um kilobyte é composto por 1.024 bytes. 
Se você está curioso por que 1 kilobyte tem 1.024 bytes e não 1.000 bytes, 
você pode ler mais sobre isso na próxima leitura suplementar. 
Por quanto, veja esta tabela de conversão rápida de dados.
Reproduza o vídeo começando em :1:10 e siga a transcrição1:10
Mas quanto 500 gigabytes representam? 
Vamos dar uma olhada no tamanho de um arquivo de música comum, 
que tem cerca de três megabytes. 
Em uma máquina de 500 gigabytes, cabem aproximadamente 165.000 arquivos de música. 
É muita música. 
Armazenamos todos os dados do computador em nosso disco rígido, 
o que nos permite armazenar programas, música, fotos, etc. 
Você já teve algum problema com o seu computador 
e perdeu todos os dados que estavam no seu disco rígido? 
Sim, eu também, foi péssimo. 
Isso realmente acontece muito 
e você deve se deparar com isso enquanto especialista em suporte de TI. 
Faça backup de seus dados para garantir. 
Isso significa que você deve copiar salvar seus dados em outro lugar, 
só para o caso de algo dar errado e seu disco rígido falhar. 
Assim você não perde todos os seus dados. 
Existem dois tipos básicos de unidades rígidas usadas hoje. 
As unidades de disco rígido, ou HDDs, usam um prato giratório 
e um braço mecânico para ler e gravar informações. 
A velocidade em que o prato gira permite ler e gravar dados mais rapidamente. 
É o que se chama geralmente de RPM, ou, rotação por minuto. 
Um disco rígido com maior RPM é mais rápido, assim, se você comprar um disco rígido 
atualmente, você deve encontrar algo com 500 gigabytes e 5400 RPM. 
Os HDDs estão sujeitos a muito mais danos porque têm muitas partes móveis. 
Essa suscetibilidade a danos desapareceu com um novo tipo de armazenamento 
chamado de unidade em estado sólido, ou SSD. 
Os SSDs não têm partes móveis. 
Sabe o pendrive? 
Os SSDs são criados da mesma forma. 
A informação é armazenada em microchips e os dados viajam muito mais rápido que nos HDDs. 
O fator de forma para os SSDs também é mais fino em comparação com seus primos HDDs. 
Parece ótimo, não é? 
Então, por que nem todo mundo usa SSDs? 
Bem, os dois têm prós e contras. 
Os HDDs são mais baratos, mas são mais propensos a danos. 
Os SSDs oferecem menos risco de perda de dados, 
mas também são mais caros. 
Não dá para comprar a mesma quantidade de memória em SSDs você teria com HDDs. 
Acredite ou não, existem ainda unidades que são híbridas, SSD e HDD. 
Elas oferecem desempenho de SSD quando necessário. 
Para tarefas como desempenho do sistema, como iniciar o seu computador, 
juntamente com unidades de disco rígido para coisas menos importantes, como guarda básica de arquivos. 
Existem algumas interfaces que as unidades rígidas usam para se conectar ao nosso sistema. 
As interfaces ATA são as mais comuns. 
A unidade ATA mais comum é a ATA serial, 
ou SATA, que usa um cabo para transferir os dados. 
As unidades SATA são hot swap. 
Expressão legal, não acha? 
Isso significa que você não precisa desligar sua máquina para conectar a unidade SATA. 
As unidades SATA movem dados mais rapidamente e usam um cabo mais eficiente, como este, 
do que as versões anteriores. 
O SATA é a interface mais usada para os HDDs de hoje. 
Mas as pessoas logo perceberam que o cabo SATA não era bom o suficiente 
para alguns dos SSDs super-rápidos que estavam chegando ao mercado. 
A interface não conseguiu acompanhar a velocidade dos SSDs mais novos. 
Então outro padrão de interface foi criado: o chamado NVM Express, ou NVMe.
Reproduza o vídeo começando em :4:18 e siga a transcrição4:18
Em vez de usar um cabo para conectar sua unidade na máquina, 
a unidade é adicionada como um slot de expansão, o que permite 
maior taxa de transferência de dados e maior eficiência.

Leitura complementar sobre armazenamento de


dados:
https://en.wikipedia.org/wiki/Kilobyte

Fornecimento de energia
Para fazer o computador funcionar, temos que fornecer energia. 
Os computadores têm uma fonte de alimentação que converte a eletricidade da tensão de entrada 
para a tensão que ele usa. 
Existem dois tipos de eletricidade, a DC, ou corrente contínua, que corre 
em uma direção, e a AC, ou corrente alternada, que muda de direção constantemente. 
Nossos computadores usam a tensão DC, então temos de converter a tensão AC 
da concessionária de energia para algo que podemos usar. 
Isso é o que a fonte de alimentação faz. 
Ela converte a AC que recebemos da parede em baixa tensão DC 
que podemos usar e transmitir para todo o computador. 
Vamos falar sobre as fontes de alimentação. 
Tenho até uma aqui comigo. 
Deixe-me mostrar como ela é. 
Deixe-me tirá-la aqui.
Reproduza o vídeo começando em ::53 e siga a transcrição0:53
As unidades de alimentação costumam ter uma ventoinha, que está bem aqui. 
Também trazem informações de tensão que são exibidas embaixo 
ou do lado, e cabos, como este, para alimentar a placa-mãe, 
e um cabo de energia.
Reproduza o vídeo começando em :1:15 e siga a transcrição1:15
Você já ligou algum aparelho seu na tomada 
e queimou o equipamento? 
Se nunca aconteceu, você tem muita sorte. 
Depois de concluir esta lição, espero que você consiga evitar isso. 
Para entender a eletricidade, podemos usar o exemplo dos canos de água. 
As pias têm uma torneira que é ligada a uma caixa d'água pressurizada. 
Quando abrimos a torneira, a água sai. 
É mais ou menos assim que a eletricidade funciona. 
Quando plugamos um aparelho na tomada 
e o ligamos, o fluxo de eletricidade sai. 
Se aumentássemos a pressão da caixa d'água, sairia mais água? 
Quanto maior a pressão, mais água sairia. 
Quando se trata de eletricidade, chamamos a pressão de tensão. 
Quando eu estava de férias, para meu espanto, quando liguei um aparelho de 120 volts 
em uma tomada de 220 volts, a energia veio com tudo e queimou meu carregador. 
Se fosse o contrário, e um aparelho de 220 volts 
fosse ligado em uma tomada de 120 volts, o resultado teria sido diferente. 
Eu teria recebido eletricidade, mas de forma lenta. 
É como se a caixa d'água estivesse com metade da pressão necessária. 
A água sairia, mas seria pouca. 
Mas em alguns casos, isso pode atrapalhar o desempenho do dispositivo 
e causar danos em longo prazo. 
Como regra geral, confirme que a tensão é adequada para seus aparelhos eletrônicos. 
Chamamos a quantidade de eletricidade que sai de corrente ou amperagem, 
que é medida em amperes. 
Podemos pensar nos amperes como aquilo que puxa a eletricidade, 
ao contrário da tensão, que empurra a eletricidade. 
A amperagem puxa toda a eletricidade necessária, mas a tesão oferece tudo o que tem. 
Olhe na parte de trás do carregador do seu aparelho, você verá algo 
como 1 ou 2,1a. 
Carregar um dispositivo com 2,1 amperes vai carregá-lo mais rápido 
porque ele consegue injetar mais corrente do que um carregador de 1 ampere. 
Por fim, a outra parte importante da eletricidade que você precisa saber 
é a potência. 
Potência é a quantidade de volts e amperes de que o dispositivo precisa. 
Se a sua fonte de alimentação tiver uma potência muito baixa, 
você não conseguirá ligar seu computador, então confirme que ela tenha a potência certa. 
Isso não significa que se você tiver uma fonte de alimentação maior, 
seu computador ficará sobrecarregado. 
As fontes de alimentação oferecem apenas a quantidade de que o sistema precisa. 
É melhor errar por excesso de alimentação. 
Você consegue alimentar a maioria dos desktops com uma fonte de 500 watts, 
mas se você está fazendo algo que exija mais do seu computador, 
como jogar videogame com alta resolução ou fazendo muitas produções de vídeo 
com renderização, você precisará de uma fonte de alimentação maior para o computador. 
Por outro lado, se o que você faz é só navegar na web, 
a fonte de alimentação que vem seu computador é o suficiente. 
Ocorrem vários tipos de problemas com uma fonte de alimentação ruim. 
Às vezes o computador nem liga. 
Como as fontes de alimentação podem estragar por várias razões, como curtos-circuitos, picos de energia 
ou até mesmo raios, saber identificar problemas de alimentação e substituir 
uma fonte estragada é uma habilidade que todo especialista de suporte de TI deve ter.
Periféricos
Vamos dar uma olhada na parte de trás do computador novamente. 
Aqui você verá muitos conectores ou portas. 
Podemos conectar itens diferentes como mouse, 
teclado e monitor. 
Esses são os chamados periféricos. 
Um periférico é basicamente qualquer coisa que você conecta 
ao computador externamente e que adiciona funcionalidade. 
Você já deve ter usado dispositivos USB antes. 
O USB, que significa 
barramento serial universal, são as conexões mais comuns para nossos aparelhos. 
O USB passou por muitas mudanças desde sua criação. 
Você encontra o USB 2.0, 
o USB 3.0 e o USB 3.1 no sistema atual. 
Veja um resumo das diferentes versões. 
O USB 2.0 tem velocidade de transferência de 480 megabytes por segundo, 
O USB 3.0 tem velocidade de transferência de 5 gigabytes por segundo, 
O USB 3.1 tem velocidade de transferência de 10 gigabytes por segundo, 
Na tabela, vamos ver alguns detalhes. 
O uso de M maiúsculo, b minúsculo, barra s 
em vez de M maiúsculo, B maiúsculo para se referir a velocidade de transferência. 
Essas são, de fato, unidades diferentes. 
MB é megabyte ou unidade de armazenamento de dados, 
enquanto M maiúsculo, b minúsculo, barra s é um megabit por segundo, 
que é uma unidade de taxa de transferência de dados. 
As pessoas geralmente confundem 40 megabits por segundo 
para indicar a transferência de 40 megabytes de dados por segundo. 
Lembre-se de que um byte é 8 bits, 
então, para transferir um arquivo de um megabyte 
em um segundo, será necessário uma conexão de 8 megabits por segundo. 
Assim, para transferir 40 megabytes de dados em um segundo, 
será necessário uma velocidade de 320 megabits por segundo. 
As portas USB têm de ser compatíveis para conectar seus dispositivos. 
Se você conectar um dispositivo USB 2.0 em uma porta USB 3.0, 
a velocidade de transferência não será 3.0. 
Mas dá para usar a porta, já que ela é compatível com versões anteriores, 
ou seja, o hardware mais antigo funciona com o hardware mais novo. 
As portas são fáceis de diferenciar. Deixe-me lhe mostrar. 
Em geral, o USB 2.0 é preto, o USB 3.0 é azul e as portas 3.1 são verdes. 
Isso pode mudar dependendo dos fabricantes. 
Existem muitos tipos de conectores USB, 
e você pode ler sobre todos eles na leitura suplementar após este vídeo. 
Dê uma olhada. Voltando aos conectores USB. 
O mais atual é o conector tipo C, 
que veio para substituir muitas conexões periféricas. 
Ele está se tornando o padrão universal para exibição e transferência de dados. 
Além dos periféricos USB, 
você também deve conhecer os periféricos de exibição. 
Existem alguns padrões comuns de entrada. 
A maioria dos monitores de computador tem uma ou mais dessas conexões, 
mas você pode encontrar padrões mais antigos também. 
DVI. Os cabos DVI geralmente só têm saída de vídeo. 
Se você precisar conectar um monitor ou projetor 
para uma apresentação de slides e quiser áudio também, não funciona. 
Em vez disso, é melhor tentar um dos cabos a seguir. 
HDMI. Este se tornou o padrão para muitas TVs 
e computadores hoje em dia e tem saída de vídeo e áudio. 
Outro padrão que se tornou popular entre os fabricantes 
a displayPort, que também tem saída para áudio e vídeo. 
Além de áudio e vídeo, 
o USB tipo C também transfere dados e energia. 
Como especialista em suporte de TI. 
você vai trabalhar muito com periféricos como dispositivos USB e de exibição. 
Agora você já pode identificar os principais tipos. 
Na próxima aula, 
vamos aprender como o nosso computador inicializa o hardware sobre o qual conversamos.

Leitura complementar sobre periféricos USB:


https://en.wikipedia.org/wiki/USB

BIOS
Certo. Agora já vimos todos os principais componentes para o nosso computador funcionar. 
O último item que vamos ver é como os dispositivos conversam entre si. 
Sabemos como os programas são executados do disco rígido para o processador, mas como outros itens 
como o clique do mouse ou o toque do teclado são enviados para o processador? 
Estes são dispositivos básicos, 
que não contêm instruções e que o processador sabe ler.
Reproduza o vídeo começando em ::34 e siga a transcrição0:34
Se você apertar apenas uma tecla no teclado, 
você envia apenas um byte para o processador. 
O processador não sabe o que é isso 
porque não tem instruções sobre como lidar com essa informação. 
Acontece que os dispositivos também usam programas para dizer ao processador como executá-los. 
Esses programas são chamados de serviços ou drivers. 
Os drivers contêm as instruções de que o processador precisa para compreender 
dispositivos externos como teclados, webcams, impressoras. 
O processador não sabe que existe um dispositivo com o qual ela pode conversar, 
então ela tem que se conectar com o que chamamos de BIOS, ou seja, serviços básicos de entrada e saída. 
A BIOS é um software que ajuda a inicializar o hardware do computador 
e que põe o sistema operacional em funcionamento.
Reproduza o vídeo começando em :1:16 e siga a transcrição1:16
Diferente dos programas, 
você deve estar acostumado a rodar um navegador ou o sistema operacional, 
a BIOS não está armazenada em um disco rígido. 
Nossa placa-mãe armazena a BIOS em um tipo especial de memória chamada 
de chip de memória somente leitura, ou chip ROM.
Reproduza o vídeo começando em :1:31 e siga a transcrição1:31
Ao contrário da RAM, a ROM não é volátil, 
o que significa que ela não apaga os dados se o computador for desligado. 
Quando o sistema operacional é carregado, carregamos os drivers dos dispositivos não essenciais 
diretamente do disco rígido. 
No sistema atual, existe outro componente da BIOS chamado de UEFI, 
que significa interface unificada de firmware extensível. 
A UEFI executa a mesma função 
de iniciar seu computador, como a BIOS tradicional. 
Mas ele é mais moderno e tem melhor compatibilidade 
e suporte para os hardwares mais novos. 
A maioria dos hardwares atualmente vem com o UEFI embutido. 
No futuro, a UEFI será a BIOS predominante. 
Quando você liga um computador, dá para ouvir bipe de vez em quando. 
Os computadores executam um teste para garantir que todo o hardware está funcionando corretamente. 
Chamamos isso de autoteste de inicialização, ou POST. 
É a BIOS que o executa quando você inicializa seu computador.
Reproduza o vídeo começando em :2:28 e siga a transcrição2:28
O POST descobre qual é o hardware que está no computador. 
Ele acontece antes de a BIOS inicializar qualquer item de hardware 
ou carregar drivers essenciais. 
Se houver problema em algum item, não há como exibi-lo 
na tela, porque itens como o driver de vídeo ainda não foram carregados. 
Em vez disso, o computador geralmente pode emitir uma série de bipes, como se fosse um código Morse, 
que pode ajudar a identificar o problema. 
As diferentes marcas têm códigos de bipes diferentes. 
Então, se o seu computador se iniciar corretamente, talvez você ouça um único bipe.
Reproduza o vídeo começando em :2:59 e siga a transcrição2:59
Se você ouvir dois bipes, pode ser um erro de POST.
Reproduza o vídeo começando em :3:4 e siga a transcrição3:04
É melhor consultar o manual da sua placa-mãe para descobrir o que cada código significa. 
Além disso, saiba que nem todas as máquinas têm alto-falantes embutidos, 
então não se preocupe se o seu computador se inicializar sem bipe.
Reproduza o vídeo começando em :3:18 e siga a transcrição3:18
Se ele tiver um alto-falante embutido, saber distinguir o que cada sinal sonoro 
significa é extremamente útil para solucionar problemas de inicialização. 
O último item de que falaremos são as configurações da BIOS. 
Há um chip especial na placa-mãe chamado de chip CMOS. (bateria do CMOS)
Reproduza o vídeo começando em :3:34 e siga a transcrição3:34
Ele armazena dados básicos de inicialização do seu computador, como a data, hora 
de sua preferência de inicialização. 
Você pode alterar essas configurações entrando no menu de configuração do CMOS ou da BIOS. 
Isso varia nos diferentes computadores, mas, geralmente, quando se inicializa o computador, 
há uma tela rápida que informa qual botão apertar para entrar nas configurações.
Reproduza o vídeo começando em :3:55 e siga a transcrição3:55
A partir daí, você pode alterar as configurações básicas da BIOS.
Reproduza o vídeo começando em :3:59 e siga a transcrição3:59
Na função de suporte de TI, você pode interagir com a BIOS mais frequentemente do que você pensa. 
As configurações da BIOS controlam quais dispositivos devem ser inicializados e, como técnico de TI, 
você pode precisar mudar as configurações frequentemente. 
Uma ação de TI que se faz com frequência é a restauração do computador. 
Trata-se de restaurar os dados do sistema operacional. 
O processo de restauração implica limpar 
e reinstalar o sistema operacional. 
Este procedimento é normalmente executado usando um programa que fica armazenado 
em algum dispositivo externo, como um pen drive, CD-ROM 
ou até um servidor acessível pela rede. 
Para acessar esses programas e fazer a restauração, você precisará 
usar a BIOS para informar ao computador que ele deve ser inicializado a partir desse dispositivo externo.

Entendendo o contexto
Agora que aprendemos quais são os componentes de um computador 
e como eles funcionam, vamos montar nosso próprio computador, um desktop com tamanho padrão. 
Os computadores são fundamentais para o trabalho de um especialista em suporte de TI. 
Eles são usados em praticamente todos os aspectos do trabalho. 
Além do trabalho, saber como montar um computador pode inspirá-lo a experimentar 
coisas muito legais. 
Você pode montar um equipamento gamer personalizado para jogar o jogo mais avançado na melhor
configuração 
ou, assim como eu, montar um servidor caseiro para todas as suas fotos e vídeos. 
Saber montar um computador é uma habilidade que pode ser útil 
de diversas formas interessantes. 
Antes de começarmos, vamos estabelecer algumas regras 
para esta montagem, que não é montagem. Desculpem, adoro piadas. 
Temos que pensar em descarga eletrostática 
e tentar evitar que energia estática prejudique nossos componentes muito caros. 
Você já esfregou meias em um carpete e, em seguida, deu choque em alguém? 
Não machuca, mas se fizer isso com sua placa-mãe nova, 
você acaba com ela. 
Então como prevenir uma descarga estática? 
Podemos fazer isso de duas maneiras, 
podemos tocar em um dispositivo eletrizado, mas desligado. 
Uma observação: você tem que fazer isso a cada poucos minutos ao montar o computador. 
Outra opção é usar uma pulseira antiestática, como a que tenho aqui, 
deixe-me pegá-la.
Reproduza o vídeo começando em :1:34 e siga a transcrição1:34
Você conecta a ponta com clipe em uma superfície de metal não pintada, 
como seu computador. 
E depois coloca no seu pulso. Pronto. Resolvido. 
Falando ainda sobre o assunto de segurança antiestática, 
quero destacar que, ao comprar peças de computador, 
elas vêm em sacos antiestáticos para evitar energia estática acidental. 
Deixe-as dentro dos sacos até o momento de instalá-las em seu computador. 
Agora, vamos montar esse computador. Vamos começar pela base do computador, 
a placa-mãe. 
Lembre-se: existem diferentes fatores de forma para as placas-mãe 
e você tem que ter certeza que a sua se encaixa no seu gabinete do computador. 
Nós compramos um desktop de tamanho padrão e temos uma placa-mãe ATX de tamanho padrão. 
Na placa-mãe, há muitos furos para parafusos 
que coincidem com os furos do gabinete do desktop. 
Alinhe os furos da placa-mãe com os furos do desktop.
Reproduza o vídeo começando em :2:33 e siga a transcrição2:33
Depois de descobrir quais furos usar, parafuse os espaçadores. 
Os espaçadores são usados para erguer e fixar sua placa-mãe no gabinete. 
Neste caso, nosso gabinete tem espaçadores embutidos. 
Vamos começar a adicionar os componentes.
Reproduza o vídeo começando em :3:38 e siga a transcrição3:38
Vamos começar colocando os componentes. 
Vamos começar com o processador, vamos tirá-lo do saco antiestático.
Reproduza o vídeo começando em :3:45 e siga a transcrição3:45
Você tem que ser muito cuidadoso porque são peças caras 
e não podemos deixá-las cair.
Reproduza o vídeo começando em :3:54 e siga a transcrição3:54
Depois de tirar do saco, vamos alinhar o processador no soquete da placa-mãe. 
É importante perceber esta marca aqui. 
Ela tem que se alinhar com o soquete do processador na placa-mãe. 
Também não se esqueça de que o processador tem que ser compatível com a placa-mãe. 
Temos um processador LGA um soquete na placa-mãe compatível com o LGA. 
Então vamos prosseguir e alinhar de forma correta o processador 
e colocá-lo no lugar certo. Assim...
Reproduza o vídeo começando em :4:24 e siga a transcrição4:24
Então, como eu falei antes, 
tenha certeza de que as marcas no processador e no soquete estejam alinhadas.
Reproduza o vídeo começando em :4:32 e siga a transcrição4:32
A parte fácil é colocar o processador. 
A parte legal é prendê-lo, perceba que ao prender 
o processador no soquete, você precisa usar um pouco de força para que ele fique bem preso.
Reproduza o vídeo começando em :4:47 e siga a transcrição4:47
Perfeito. Agora o processador está preso no soquete. 
Agora que o processador está encaixado, temos que pôr o dissipador de calor em cima dele. 
O dissipador de calor é usado para dissipar o calor do processador. 
Quero mostrar algumas coisas legais. 
Esta parte aqui é a responsável pelo resfriamento do processador. 
Ela tira o calor daqui e usa esta ventoinha para soprá-lo para fora.
Reproduza o vídeo começando em :5:15 e siga a transcrição5:15
Antes de encaixarmos o dissipador de calor, aplicamos uma quantidade uniforme de pasta térmica. 
Deixe-me pegá-la. Esta é a pasta térmica. 
A pasta térmica é usada para conectar melhor o processador com o dissipador de calor. 
Assim o calor passa melhor de uma peça para a outra.
Reproduza o vídeo começando em :5:33 e siga a transcrição5:33
Para começar, aplique um pouco de pasta térmica 
e espalhe uniformemente com um objeto plano. 
Vamos fazer isso em nosso processador.
Reproduza o vídeo começando em :5:43 e siga a transcrição5:43
Então, a primeira coisa a fazer 
é aplicar lentamente uma pequena porção 
no processador. Deste jeito. 
Então, com o objeto plano, espalhe a pasta térmica uniformemente 
em todo o processador. Um pouco para cá, um pouco para lá,
Reproduza o vídeo começando em :6:9 e siga a transcrição6:09
um pouco para lá e um pouco para cá.
Reproduza o vídeo começando em :6:16 e siga a transcrição6:16
Não deixe de espalhar uniformemente por todo o processador. 
Você pode ter que fazer isso várias vezes para acertar.
Reproduza o vídeo começando em :6:27 e siga a transcrição6:27
Então, quando estiver pronto, você vai encaixar o dissipador de calor 
e vai pressioná-lo contra o processador.
Reproduza o vídeo começando em :6:37 e siga a transcrição6:37
É importante perceber que estes parafusos bem aqui 
devem se alinhar com o soquete do processador. 
Assim você pode se orientar ao encaixar o dissipador de calor.
Reproduza o vídeo começando em :7:2 e siga a transcrição7:02
Ótimo, depois de alinhar os quatro soquetes, 
pegue sua chave de fenda e aperte os parafusos nos soquetes.
Reproduza o vídeo começando em :7:16 e siga a transcrição7:16
É importante você não se esquecer de apertar os lados opostos primeiro, 
assim você garante que o dissipador está preso com segurança.
Reproduza o vídeo começando em :7:37 e siga a transcrição7:37
O que costumo fazer de novo é voltar nos parafusos 
para confirmar que todos eles estão bem apertados.
Reproduza o vídeo começando em :7:59 e siga a transcrição7:59
Ótimo, agora que os parafusos estão apertados no dissipador de calor 
junto do processador, é preciso ligar este Molex na placa-mãe. 
É importante pois é ele que controla a velocidade da ventoinha 
por meio da placa-mãe.
Reproduza o vídeo começando em :8:18 e siga a transcrição8:18
Perfeito. 
Então, agora, você já instalou e conectou o processador à placa-mãe.
Reproduza o vídeo começando em :8:26 e siga a transcrição8:26
Em seguida, vamos instalar a RAM. 
Localize slots DIMM em sua placa-mãe. 
Então, estes são os slots DIMM sobre os quais já falamos antes. 
Tenho quatro slots disponíveis aqui e tenho quatro pentes de RAM. 
Deixe-me pegá-los.
Reproduza o vídeo começando em :8:39 e siga a transcrição8:39
Estes são meus pentes de memória RAM e, é claro, eles estão no saco antiestático. 
Vamos jogá-los fora.
Reproduza o vídeo começando em :9: e siga a transcrição9:00
Então, como mencionei antes, nesta montagem, vamos usar a RAM DDR3.
Reproduza o vídeo começando em :9:6 e siga a transcrição9:06
Certo, uma coisa a fazer antes de instalar a RAM é ter certeza 
de que esses slots estão alinhados com a memória RAM, 
assim eu não preciso forçar os pentes na hora de instalar. 
Então, se você notar bem, os slots estão bem no centro, 
então o que faço antes de encaixar é visualmente garantir 
a posição correta e, em seguida, alinhar o restante dos pentes de RAM na mesma posição. 
É só encaixá-los assim.
Reproduza o vídeo começando em :9:34 e siga a transcrição9:34
Desta forma.
Reproduza o vídeo começando em :9:40 e siga a transcrição9:40
E assim. 
Dessa forma, você não vai danificar os pinos caso coloque os pentes 
com um pouco mais de força.
Reproduza o vídeo começando em :9:51 e siga a transcrição9:51
Então agora que os pegamos, vamos encaixar neste slot bem aqui.
Reproduza o vídeo começando em :9:57 e siga a transcrição9:57
Alinhe os pinos corretamente empurre a RAM até ouvir um clique. 
Você sabe que está encaixado quando os dois lados estão corretamente travados. 
E há algo mais que você deve saber. 
Estes slots aqui são pretos e brancos. 
Vamos usar apenas os slots brancos.
Reproduza o vídeo começando em :10:20 e siga a transcrição10:20
Este também.
Reproduza o vídeo começando em :10:24 e siga a transcrição10:24
E também vamos colocar este aqui.
Reproduza o vídeo começando em :10:45 e siga a transcrição10:45
Pronto. Você já encaixou com segurança 
sua memória RAM na placa-mãe. 
Em seguida, vamos para o disco rígido.
Reproduza o vídeo começando em :10:52 e siga a transcrição10:52
Neste exemplo, estamos usando um disco rígido SSD SATA em vez de um HDD.
Reproduza o vídeo começando em :10:59 e siga a transcrição10:59
Só precisamos usar um cabo SATA para conectá-lo à nossa placa-mãe.
Reproduza o vídeo começando em :11:3 e siga a transcrição11:03
Então, primeiro, o que vou fazer é encaixá-lo nesta baia,
Reproduza o vídeo começando em :11:9 e siga a transcrição11:09
Isso vai variar de gabinete para gabinete, mas neste vai ser fácil. 
Tudo o que temos que fazer é deslizá-lo assim. 
Geralmente, você ouve um clique, assim... 
Depois do encaixe, 
precisamos só usar um cabo SATA para conectar nosso SSD à placa-mãe. 
Deixe-me pegá-lo.
Reproduza o vídeo começando em :11:29 e siga a transcrição11:29
Vamos lá. 
Este é o cabo SATA. 
Então o que eu vou fazer é conectar esta ponta ao SSD.
Reproduza o vídeo começando em :11:37 e siga a transcrição11:37
Vou ligar esta ponta na nossa placa-mãe.
Reproduza o vídeo começando em :11:47 e siga a transcrição11:47
(Não deixe de conectar o plugue de alimentação SATA ao SSD) Pronto. Está instalado.
Reproduza o vídeo começando em :11:50 e siga a transcrição11:50
Lembre-se que os cabos SATA só podem se conectar de uma forma. 
Agora que instalamos nosso SSD, vamos instalar a ventoinha do gabinete.
Reproduza o vídeo começando em :12: e siga a transcrição12:00
Esta é a aparência da ventoinha. 
Devemos prestar atenção neste Molex. 
Você deve encontrar uma etiqueta na placa-mãe que aponte: ventoinhas traseiras.
Reproduza o vídeo começando em :12:11 e siga a transcrição12:11
Nem todas as placas-mãe têm essa indicação, mas, neste exemplo, nós temos. 
É apenas uma observação.
Reproduza o vídeo começando em :12:19 e siga a transcrição12:19
Encaixamos nas aberturas. Pronto. 
A ventoinha está instalada e agora eu vou passar para a conexão do Molex.
Reproduza o vídeo começando em :12:32 e siga a transcrição12:32
Pronto. Agora a ventoinha está ligada na placa-mãe.
Reproduza o vídeo começando em :12:36 e siga a transcrição12:36
A prática recomendada é criar um túnel de vento que suga o ar, 
sopra sobre os componentes, e depois o joga para fora. 
Veja como o dissipador de calor também tem uma ventoinha. 
Isso é bem normal, já que o processador gera muito calor 
e queremos ajudar a resfriá-lo o máximo que pudermos.
Reproduza o vídeo começando em :12:54 e siga a transcrição12:54
Estamos quase terminando. 
Agora, vamos conectar a energia elétrica e testar para ver se tudo está funcionando. 
Vamos pegar a fonte de alimentação.
Reproduza o vídeo começando em :13:2 e siga a transcrição13:02
Pronto.
Reproduza o vídeo começando em :13:6 e siga a transcrição13:06
Primeiro, vamos prender a fonte de alimentação no gabinete. 
Tenha cuidado para não danificar a placa-mãe ao instalá-la.
Reproduza o vídeo começando em :13:13 e siga a transcrição13:13
O que você precisa fazer é colocar a peça lentamente, assim, 
e deslizá-la para dentro. 
Pronto.
Uma coisa que gosto de fazer é colocar todos os cabos para o lado, 
assim, como eu disse antes, eles não danificam a placa-mãe. 
Então, vou começar a prender nossa fonte de alimentação.
Reproduza o vídeo começando em :13:37 e siga a transcrição13:37
Acho bem legal fazer a montagem. 
Pronto.
Reproduza o vídeo começando em :13:49 e siga a transcrição13:49
Então, como você pode ver, eu prefiro começar com os dedos, 
é mais fácil de colocar.
Reproduza o vídeo começando em :13:54 e siga a transcrição13:54
E depois que coloquei todos os parafusos, vou para o próximo passo, 
pego a chave de fenda e faço o aperto.
Reproduza o vídeo começando em :14:19 e siga a transcrição14:19
Pronto.
Então vamos continuar e apertar os parafusos bem aqui. 
E quatro. 
Ótimo. 
Agora já prendemos a fonte no gabinete, 
assim ela não se move mais. 
Só mais uma observação, você também pode instalar a fonte 
antes de conectá-la à placa-mãe, dependendo da disposição do seu gabinete.
Reproduza o vídeo começando em :14:47 e siga a transcrição14:47
Vamos voltar para os vários conectores.
Reproduza o vídeo começando em :14:51 e siga a transcrição14:51
Existem alguns aspectos que eu gostaria de destacar.
Reproduza o vídeo começando em :14:55 e siga a transcrição14:55
Este grande aqui é o que alimenta a placa-mãe.
Reproduza o vídeo começando em :15:1 e siga a transcrição15:01
O outro que nós temos é mais antigo, é este Molex de quatro pinos. 
Esses conectores eram muito usados antes do surgimento do SATA.
Reproduza o vídeo começando em :15:9 e siga a transcrição15:09
Agora, usamos esses conectores para alimentar a maioria dos dispositivos SATA atualmente.
Reproduza o vídeo começando em :15:17 e siga a transcrição15:17
A maioria das máquinas modernas usam conectores de energia SATA 
para discos rígidos, por isso, elas podem vir com adaptadores Molex/SATA. 
Agora é a hora mais legal. 
Primeiro, vamos conectar a fonte de alimentação na placa-mãe. 
Vamos usar este conector grande sobre o qual falei há pouco. 
Ele vai ser ligado bem aqui.
Reproduza o vídeo começando em :15:40 e siga a transcrição15:40
Conectamos desta forma.
Reproduza o vídeo começando em :15:45 e siga a transcrição15:45
Em seguida, vamos ligar a alimentação do processador com este Molex de 8 pinos. 
É bem apertado, mas é possível conectar.
Reproduza o vídeo começando em :16:5 e siga a transcrição16:05
Pronto. 
Então, o que acabamos de fazer foi conectar a alimentação da placa-mãe 
e do processador. 
Então agora que ligamos o cabo no processador e na placa-mãe, 
a próxima coisa que precisamos ligar são os cabos que estão soltos no gabinete. 
Isso vai variar de gabinete para gabinete, mas vamos analisá-los. 
Alguns desses cabos são usados para botões e luzes do gabinete. 
Então, para este gabinete, vou conectá-los.
Reproduza o vídeo começando em :16:44 e siga a transcrição16:44
Certo.
Reproduza o vídeo começando em :17:4 e siga a transcrição17:04
Bem, os cabos estão ligados na nossa placa-mãe. 
Uma boa ideia é consultar o manual que às vezes vem com a placa-mãe. 
Isso ajuda você a fixar os cabos na placa-mãe de forma organizada 
e segura no gabinete. 
É exatamente o que eu vou fazer neste momento.
Reproduza o vídeo começando em :17:25 e siga a transcrição17:25
Agora que os cabos estão presos com segurança ao gabinete, 
não podemos esquecer de uma coisa, a placa de vídeo.
Reproduza o vídeo começando em :17:32 e siga a transcrição17:32
Vamos precisar dela para enviar vídeo para o monitor. 
Nós vamos ligar esta placa de vídeo no slot PCI-Express 
da placa-mãe.
Reproduza o vídeo começando em :17:41 e siga a transcrição17:41
Assim como a RAM, 
você tem que fazer um pouco de pressão ao inseri-la. 
Então não tenha medo de fazer um pouco de força 
até ouvir um clique assim.
Reproduza o vídeo começando em :17:54 e siga a transcrição17:54
Depois disso, você pode prendê-la ao gabinete. 
Isso vai variar de gabinete para gabinete,
Reproduza o vídeo começando em :18:3 e siga a transcrição18:03
Pronto, sua placa de vídeo foi instalada. 
Bem, acho que é isso. 
Vamos fechar nosso computador.
Reproduza o vídeo começando em :18:11 e siga a transcrição18:11
Primeiro, não se esqueça de retirar a pulseira antiestática.
Reproduza o vídeo começando em :18:17 e siga a transcrição18:17
Vou pegar o gabinete.
Reproduza o vídeo começando em :18:24 e siga a transcrição18:24
Colocá-lo desta forma e encaixar.
Reproduza o vídeo começando em :18:35 e siga a transcrição18:35
Pronto. Finalmente montamos nossa máquina. 
Por último, mas não menos importante, vamos conectar o monitor, o teclado 
e o mouse no desktop. 
Então, primeiro, vamos pegar o teclado. 
O que você precisa fazer é conectar este USB na porta USB 
do desktop.
Reproduza o vídeo começando em :18:53 e siga a transcrição18:53
Então vamos pegar o mouse e fazer a mesma coisa. 
Conecte-o à porta USB.
Reproduza o vídeo começando em :19:1 e siga a transcrição19:01
E, por último, vamos conectar nosso monitor. 
Para este monitor, vamos usar um cabo displayPort. 
Ligo uma ponta no desktop, assim. 
Em seguida, ligo esta ponta no monitor.
Reproduza o vídeo começando em :19:28 e siga a transcrição19:28
Tudo certo, esta é a parte mais interessante. 
Vamos ver se está tudo funcionando.
Reproduza o vídeo começando em :19:33 e siga a transcrição19:33
Então eu vou apertar o botão para ligar.
Reproduza o vídeo começando em :19:37 e siga a transcrição19:37
A luz está azul, o que é um bom sinal. 
E é claro que vai variar de sistema para sistema. 
Vamos ver se o monitor vai exibir algo.
Reproduza o vídeo começando em :19:46 e siga a transcrição19:46
O computador está inicializando.
Reproduza o vídeo começando em :19:49 e siga a transcrição19:49
Vamos ver. Bem, parece que o monitor está recebendo sinal, o que é bom. 
Vemos algumas mensagens. Deu certo! Que legal! Está funcionando! 
Se você tiver problemas com seu computador, está tudo bem. 
Verifique se a fonte de alimentação oferece a quantidade correta de potência 
e verifique se os conectores estão bem encaixados.
Reproduza o vídeo começando em :20:10 e siga a transcrição20:10
O que é isso? 
Disco sem sistema ou erro de disco, substitua e pressione qualquer tecla quando estiver pronto. 
Parece que o nosso disco não tem sistema operacional para iniciar. Não se preocupe. 
É disso que vamos falar no próximo conjunto de aulas. 
Vamos aprender o que é um sistema operacional, 
quais são os principais sistemas operacionais e vamos saber como instalar um. 
Muito bem! Você fez seu computador ligar e funcionar 
e o monitor está recebendo sinal, então é isso. 
Vamos tirar um tempinho para pensar no que você acabou de fazer, 
não só você aprendeu sobre cada componente do computador, 
mas você descobriu como eles funcionam individualmente e depois montamos um PC juntos. 
É uma grande conquista. 
Para sua próxima tarefa, nós criamos um mecanismo que deixará você montar 
seu computador digitalmente, colocando todas as peças nos lugares, 
ou, se você já tiver todas as peças, você já pode montar 
um na vida real e, depois, escrever um resumo do processo de montagem. 
Se você se perder, não se preocupe, 
volte e reveja os vídeos que falam dos vários componentes. 
Eu sei que você vai conseguir. 
Foi muito legal ensinar tudo sobre hardware e, não se preocupe, 
nos encontraremos em breve quando você fizer o curso de serviços de infraestrutura 
de TI para administração de sistemas. 
Até a próxima, meu amigo, 
Cindy Quach vai lhe apresentar os sistemas operacionais. 
Os sistemas operacionais são essenciais em TI, considerando que, sem eles, 
nenhuma peça dessas de que falamos conseguiria fazer nada. 
Mande um abraço para a Cindy.

Parabéns! Você foi aprovado!


Nota recebida 100%
Para ser aprovado 80% ou superior
Ir para o próximo item
1.
Pergunta 1
Qual é a diferença entre o chip ROM e o chip RAM? Marque todas as respostas possíveis.

O chip ROM é volátil e apaga seus dados em caso de queda de energia. A O chip RAM não é volátil e
guarda seus dados em caso de queda de energia.
O chip ROM não é volátil e guarda seus dados em caso de queda de energia. O chip RAM é volátil e apaga
seus dados em caso de queda de energia.
Correto
Correto! O chip ROM armazena dados permanentes e guarda seus dados em caso de queda de energia. O chip
RAM armazena dados temporários e apaga seus dados em caso de queda de energia.

O chip ROM armazena dados temporários. O chip de RAM armazena dados permanentes.
O chip ROM armazena dados permanentes. O chip RAM armazena dados temporários. A ROM chip stores
permanent data. A RAM chip stores temporary data.
Correto
Correto! O chip ROM armazena dados permanentes e guarda seus dados em caso de queda de energia. O chip
RAM armazena dados temporários e apaga seus dados em caso de queda de energia.

2.
Pergunta 2
Quais dessas funções são executadas pela BIOS? Marque todas as respostas possíveis.
Verifica quais dispositivos estão conectados ao computador
Correto
Excelente! O BIOS executa o POST para verificar quais dispositivos estão conectados ao computador. Ela
também inicializa o hardware durante o boot.

Inicializa o hardware
Correto
Excelente! O BIOS executa o POST para verificar quais dispositivos estão conectados ao computador. Ela
também inicializa o hardware durante o boot.

POST
Correto
Excelente! O BIOS executa o POST para verificar quais dispositivos estão conectados ao computador. Ela
também inicializa o hardware durante o boot.

Instala os drivers
3.
Pergunta 3
Onde estão armazenadas as configurações de sua BIOS?

Pendrive
RAM
Chip CMOS
Disco rígido
Correto
Yes! As configurações de sua BIOS ficam armazenadas no chip CMOS.

4.
Pergunta 4
Qual é a diferença entre a BIOS tradicional e o UEFI? Marque todas as respostas possíveis.

O UEFI tornou-se a BIOS padrão nos novos sistemas.


Correto
Você acertou! O UEFI é o novo padrão para a BIOS. Ele se tornou a BIOS padrão nos novos sistemas e tem
melhor compatibilidade com os hardwares mais novos.

A BIOS tradicional tem melhor compatibilidade com os hardwares mais novos


O UEFI deve se tornar o novo padrão para a BIOS.
Correto
Você acertou! O UEFI é o novo padrão para a BIOS. Ele se tornou a BIOS padrão nos novos sistemas e tem
melhor compatibilidade com os hardwares mais novos.

O UEFI tem melhor compatibilidade com os hardwares mais novos.


Correto
Você acertou! O UEFI é o novo padrão para a BIOS. Ele se tornou a BIOS padrão nos novos sistemas e tem
melhor compatibilidade com os hardwares mais novos.

Componentes de um sistema operacional


Apresentamos o conceito de sistema operacional nas outras aulas. 
Mas o que ele é exatamente? 
Muitos de nós ouvimos o termo "sistema operacional" e pensamos nas interfaces 
dos PCs e dos telefones, como os menus, botões e planos de fundo. 
Tecnicamente, eles fazem parte do sistema operacional, 
mas ele é um pouco mais complexo que isso. 
O sistema operacional é todo o pacote que gerencia 
os recursos dos computadores e nos permite interagir com eles. 
Existem duas partes principais de um sistema operacional, 
o espaço kernel e o espaço do usuário. 
O kernel é o núcleo principal de um sistema operacional. 
Ele conversa diretamente com nosso hardware e gerencia os recursos do sistema. 
Enquanto usuários, não interagimos diretamente com o kernel. 
Em vez disso, interagimos com a segunda parte do sistema operacional, o espaço do usuário. 
O espaço do usuário é composto basicamente pelo que não está no kernel. 
São itens com os quais interagimos diretamente, 
como programas do sistema, interfaces do usuário etc. 
Quando dizemos "sistema operacional", 
estamos falando tanto do kernel quanto do espaço do usuário. 
Existem centenas de sistemas operacionais por aí, 
mas vamos nos concentrar nos principais usados em TI; 
Windows, Mac e Linux. 
O Windows é desenvolvido pela Microsoft 
e é amplamente utilizado por empresas e consumidores. 
A maioria dos PCs que você compra vem com o Windows como sistema operacional padrão. 
PC significa computador pessoal, 
o que quer dizer "o computador que uma pessoa usa". 
Mas, atualmente, o PC descreve mais um computador com Windows. 
Então, vamos usar PC no lugar de um computador com Windows a partir daqui. 
O Mac da Apple 
é usado principalmente pelos consumidores. 
Se você comprar um computador da Apple, 
ele virá com o Mac pré-carregado. 
O último sistema operacional de que vamos falar é o Linux. 
O Linux é um sistema operacional de código aberto, 
o que significa que o software é livre para ser compartilhado, modificado e distribuído. 
O Linux é usado intensamente na infraestrutura de negócios e pelos consumidores. 
O Linux é, na verdade, um kernel desenvolvido por Linus Torvalds. 
Por causa da maneira como evoluiu, 
chamamos o kernel Linux de sistema operacional Linux. 
Hoje, o Linux tornou-se uma grande empreitada coletiva 
com desenvolvedores de todo o mundo contribuindo para o seu sucesso. 
Como o Linux é de código aberto, 
muitas empresas diferentes criam suas próprias versões. 
Sistemas operacionais como Windows ou Macintosh, por outro lado, 
são desenvolvidos exclusivamente por suas respectivas empresas. 
Chamamos essas versões de distribuições. 
Algumas distribuições comuns do Linux são o Ubuntu, 
Debian e Red Hat.
Outro sistema operacional que começou a ganhar popularidade é o Chrome OS, 
mas não daremos detalhes sobre ele. 
Você pode ler mais sobre ele na leitura suplementar após este vídeo. 
Também não falaremos sobre nenhum dos sistemas 
usados em dispositivos móveis como o Android OS, 
iOS e Windows 10 para celular. 
Mas você deve saber que os sistemas operacionais de celulares 
estão rapidamente ultrapassando os de desktop em quantidade. 
O uso de telefones celulares em todo o mundo é mais dominante do que o de computadores desktop. 
Você pode ler mais sobre o assunto na leitura complementar. 
Mas, neste curso, vamos nos concentrar apenas no Windows e no Linux, 
pois você provavelmente trabalhará com eles no suporte de TI. 
Uma coisa legal sobre o Chrome OS 
e o Android OS é que ambos rodam o kernel do Linux por trás. 
Então, você já pode ter usado o Linux e nem saber disso. 
Existem muitos sistemas operacionais e todos ele têm características comuns. 
Se você entender os elementos formadores básicos de um sistema operacional, 
poderá aplicá-los a outro sistema e entender como ele funciona. 
Em suporte de TI, é muito comum trabalhar 
com muitos sistemas operacionais diferentes de desktops e smartphones. 
Até o fim deste módulo, 
vamos aprender o que é um sistema operacional. 
Mais especificamente, vamos aprender 
sobre os dois componentes que formam o sistema operacional, 
o espaço kernel e o espaço do usuário. 
Antes de chegarmos lá, vamos passar pelo básico. 
O kernel armazena e gerencia arquivos. 
Você pode compará-lo a um armário de escritório em que armazenamos dados em papel. 
O arquivo de computador são dados que armazenamos e esse arquivo pode ser qualquer coisa, 
um documento do Word, uma foto, 
uma música, literalmente qualquer coisa. 
Um sistema de arquivos é como gerenciamos esses arquivos. Assim como em um escritório, 
usamos um sistema para armazenar nossos arquivos. 
Não colocamos todos os arquivos em um único armário, 
seria uma verdadeira bagunça. 
Em vez disso, organizamos esses arquivos em pastas ou diretórios para facilitar a localização. 
Existem muitos tipos diferentes de sistemas de arquivos, 
que veremos com mais detalhes em vídeos futuros. 
Outra função importante do kernel é o gerenciamento de processos. 
Temos que rodar muitos programas em nosso sistema. 
Para executá-los, gerenciamos a ordem de execução, 
quantos recursos eles tomam, 
por quanto tempo rodam etc. 
O kernel nos ajuda a fazer isso com suas funções de gerenciamento de processos. 
Por exemplo, você provavelmente já usou seu computador para fazer várias tarefas ao mesmo tempo. 
Talvez você redija um texto enquanto ouve música ou reproduz um vídeo. 
O escalonador de processos é a parte do kernel que viabiliza várias tarefas simultâneas. 
Ele alterna a execução dos processos no processador mais rápido do que um piscar de olhos, 
e dá a ilusão de que as coisas estão acontecendo simultaneamente. 
Depois tem o gerenciamento de memória. 
O kernel otimiza o uso da memória 
e garante que os aplicativos tenham memória suficiente para rodar. 
Não vamos entrar em muitos detalhes agora, 
então fique ligado nas informações dos próximos vídeos. 
A última função importante que o kernel executa é o gerenciamento de entrada e saída. 
É assim que o kernel conversa com dispositivos externos como discos, 
teclados, redes, conexões, dispositivos de áudio e muito mais. 
O gerenciamento de entrada e saída lida com os dados que entram e saem do sistema. 
Se você salva um arquivo, 
clica no botão do mouse 
ou usa um microfone durante uma conversa por vídeo, 
agradeça à capacidade do kernel de gerenciar entrada e saída. 
E esse é o resumo das principais funções do kernel; 
gerenciamento de arquivos, gerenciamento de processos, 
gerenciamento de memória e gerenciamento de entrada e saída. 
Por fim, vamos falar sobre o outro componente do sistema operacional, o espaço do usuário. 
O espaço do usuário é tudo que não está no kernel. 
É tudo com o que interagimos diretamente, como programas, 
editores de texto, reprodutores de música, 
configurações do sistema, interfaces de usuário etc. 
Até o fim deste módulo, 
você terá uma sólida compreensão de todas essas funções do sistema operacional. 
Vamos começar falando mais sobre o gerenciamento de arquivos do kernel.

Arquivos e sistemas de arquivos


Imagine se você tivesse que armazenar um único arquivo em um armário. 
Nada mal, não é? 
E se, em vez de um arquivo, você tivesse que armazenar 100.000? 
Isso é um problema, não é? 
Bem, em nossos computadores, 
podemos armazenar facilmente centenas de milhares de arquivos, talvez mais. 
Problema resolvido? 
Não exatamente, pois temos que conseguir rastrear todos esses arquivos. 
O kernel lida com armazenamento e gerenciamento de arquivos em nossas máquinas. 
E, nesta aula, vamos nos aprofundar um pouco mais sobre como isso é feito. 
Existem três componentes principais para lidar com arquivos em um sistema operacional, 
dados de arquivos, metadados e sistema de arquivos.
Reproduza o vídeo começando em ::46 e siga a transcrição0:46
Vamos começar pelo sistema de arquivos. 
Quando temos um disco rígido novo em que queremos armazenar dados, 
precisamos apagar e configurar o disco. 
Desta forma, nosso sistema operacional consegue ler gravar dados nele.
Reproduza o vídeo começando em ::57 e siga a transcrição0:57
Isso é importante, pois é assim que o sistema operacional mantém o controle de arquivos. 
Ele tem que saber que tipo de sistema de arquivos é usado. 
Existem muitos sistemas de arquivos eles são usados para fins diferentes. 
Alguns sistemas de arquivos são para armazenamento de grandes quantidades de dados, 
outros são só para pequenas quantidades. 
Eles podem operar em velocidades diferentes, 
e têm resiliência variada contra corrupção de arquivos etc. 
Nós não vamos avaliar qual sistema de arquivos é o melhor. 
É você quem decide. 
Mas os principais fabricantes de sistemas operacionais têm seus próprios sistemas de arquivos exclusivos 
que eles recomendam. 
Para o Windows, o principal sistema de arquivos é o NTFS. 
Ele foi introduzido na versão anterior do Windows, o Windows NT. 
E inclui muitos recursos, como criptografia, velocidades de acesso mais rápidas, 
segurança e muito mais. 
A Microsoft está desenvolvendo outro sistema de arquivos chamado de ReFS, 
mas ele ainda não está pronto para uso do consumidor. 
Se você estiver interessado em aprender mais, 
você pode ler mais sobre o assunto na próxima leitura suplementar. 
Para o Mac OS, o sistema de arquivos padrão é o HFS+. (Desde março de 2017, o sistema de arquivos
padrão nos dispositivos da Apple é o APFS.)
Ele tem journaling, 
o que significa que ele é melhor no salvamento do estado do seu disco em caso de falha. 
Este é um recurso de outros tipos de sistemas de arquivos, como o NTFS. 
No Linux, as diferentes distribuições usam diferentes tipos de sistema de arquivos. 
O padrão para sistemas de arquivos 
do Linux é o ext4, que é compatível com sistemas de arquivos ext mais antigos. 
Em geral, diferentes tipos de sistemas de arquivos não conversam bem uns com os outros. 
Você pode não conseguir mover facilmente arquivos entre os diferentes sistemas de arquivos, 
dependendo do tipo de sistema. 
Uma boa orientação é usar só o sistema de arquivos 
que seu sistema operacional recomenda. 
Você pode ler mais sobre os diferentes tipos de sistemas de arquivos 
na leitura suplementar. 
Outra parte importante do gerenciamento de arquivos é o armazenamento de dados de arquivos reais. 
Registramos dados no nosso disco rígido na forma de blocos de dados. 
Quando salvamos algo nos discos rígidos, nem o resultado é uma parte única. 
Pode ocorrer divisão em várias partes registradas em diferentes partes do disco. 
O armazenamento em bloco melhora a manipulação mais rápida dos dados 
porque os dados não são guardados em uma parte enorme e podem ser acessados mais rapidamente. 
Também é melhor para o uso do espaço de armazenamento. 
Por fim, precisamos guardar os metadados que contêm informações sobre o arquivo. 
Há muitas informações sobre o arquivo que precisamos saber, 
como quem o criou, quando foi a última alteração, quem tem acesso a ele e assim por diante. 
Os metadados do arquivo nos dizem tudo que precisamos saber sobre o arquivo. 
Eles também nos informam o tipo do arquivo. 
A extensão do arquivo é a parte anexa ao nome do arquivo que nos diz 
que tipo de arquivo ele é em certos sistemas operacionais. 
Tome cool_image.jpeg.
Jpeg é uma extensão de arquivo associada a arquivos de imagem. 
Você verá tipos diferentes de extensões de arquivo como esta 
ao trabalhar com seu sistema operacional. 
O conhecimento prático dos sistemas de arquivos e das diferenças entre eles é 
uma grande habilidade para ter à sua disposição quando você for especialista de suporte. 
Pode ser muito útil quando você precisar fazer coisas como recuperar dados 
de discos danificados. 
Ou explorar formas de trabalhar a partir de diferentes tipos de sistemas operacionais, 
como o Windows e o Linux, no mesmo computador.

Leitura complementar sobre o sistema de


arquivos ReFS
https://en.wikipedia.org/wiki/ReFS

Gerenciamento de processos
Uma das tarefas mais importantes do kernel é o gerenciamento de processos. 
O processo é um programa que está sendo rodado, 
como o navegador de Internet ou o editor de texto. 
O programa é um aplicativo que podemos rodar, como o Chrome. 
Observe a diferença. 
Podemos ter muitos processos do mesmo programa rodando ao mesmo tempo. 
Pense nas várias janelas do Chrome que você pode abrir. 
Todas elas são processos diferentes do mesmo programa. 
Quando queremos rodar os programas, 
temos que dedicar recursos de computação para eles, 
como RAM e CPU. 
Temos uma quantidade finita de recursos 
e queremos executar vários programas. 
O kernel tem que gerenciar os recursos eficientemente, 
para que todos os programas desejados possam ser executados. 
O kernel não dedica todos os recursos do computador para um processo. 
Nosso sistema está rodando constantemente 
vários processos necessários para que ele funcione, 
então o kernel precisa lidar com todos esses processos de uma só vez. 
O que quer que o programa precise executar, 
é preciso criar um processo para aquilo. 
Esse processo precisa de recursos centrais, como RAM e processador. 
O kernel precisa programar tempo para o processador executar as instruções do processo. 
Mas há apenas um processador e muitos processos. 
Como o processador pode rodar vários processos de uma só vez? 
E ele faz isso, ele executa os processos 
um a um pelo que chamamos de fatia de tempo. 
A fatia de tempo é um intervalo de tempo muito curto 
que é alocado para um processo rodar no processador. 
É tão curto que você nem percebe. 
Na verdade, é supercurto. 
O processador executa um processo em milissegundos, depois outro, depois outro... 
Para o olho humano, tudo parece correr simultaneamente, 
é rápido assim que o processador funciona. 
Se o seu computador está lento e os recursos do processador estiverem no máximo, 
pode haver muitos fatores em jogo. 
Talvez um processo esteja ocupando mais fatias de tempo do que deveria. 
Isso significa que o próximo processo não pode ser executado. 
Outra possibilidade é existirem muitos processos 
que exigem tempo de processamento, mas a CPU não dá conta. 
Seja qual for o caso, 
mesmo que o kernel faça o melhor para gerenciar os processos, 
pode ser necessário agir manualmente de vez em quando. 
Vamos falar sobre como gerenciar processos em outro curso. 
O kernel cria processos, 
escalona-os com eficiência e gerencia como os processos são finalizados. 
Isso é importante, pois precisamos coletar 
todos os recursos usados anteriormente 
pelos processos ativos e realocá-los para outro processo.

Gerenciamento de memória
Lembre-se que quando um processo é executado, 
ele precisa de tempo de CPU, mas também precisa de memória. 
Quando os processos são executados, 
eles ocupam espaço na memória, 
para que o computador possa ler e carregá-los rapidamente. 
No entanto, em comparação com os discos rígidos, 
a memória é muito menor. 
Então, para ter mais memória do que temos fisicamente, 
usamos algo chamado de memória virtual. 
A memória virtual é uma combinação 
de espaço no disco rígido e da RAM, uma memória que os processos podem usar. 
Quando executamos um processo, 
pegamos os dados do programa em blocos, que chamamos de páginas. 
Armazenamos essas páginas na memória virtual. 
Se quisermos ler e executar essas páginas, 
elas precisam ser enviadas para a memória física ou RAM. 
Por que não armazenamos todo o programa na RAM para executá-lo rapidamente? 
Bem, é possível ser for pequeno o suficiente, 
mas para grandes aplicativos, não daria certo. 
Você já usou um processador de texto, 
e acessou um menu que você pouco usa, 
e percebeu que o aplicativo ficou mais lento? 
É porque seu computador teve que carregar a página 
para esse menu a partir da memória virtual para a RAM. 
Não usamos todos os recursos do aplicativo de uma só vez. 
Então, por que carregar tudo de uma só vez? 
É como fazer uma receita de um caderno de receitas. 
Você não precisa ler o livro inteiro só para fazer uma receita. 
Você só precisa ler as páginas da receita que está fazendo. 
Quando armazenamos a memória virtual no disco rígido, 
chamamos o espaço alocado de espaço swap. 
Quando entramos na prática de particionamento de disco, 
iremos alocar o espaço swap. 
O kernel cuida de tudo isso para nós, é claro. 
Ele lida com o processo de tomar páginas de dados 
e trocá-las entre a RAM e a memória virtual. 
Mas o kernel não é o único que põe a mão na massa. 
Parabéns por ter conseguido chegar até esta aula. 
Muito bem. Na próxima, 
vamos falar de gerenciamento de entrada e saída. Até lá.

Gerenciamento de entradas e saídas


Até agora, aprendemos o trabalho árduo do kernel com os arquivos, 
gerenciando o armazenamento, fazendo malabarismo 
com os diferentes processos em execução no computador e alocando memória. 
Outra tarefa importante que o nosso kernel faz 
é gerenciar entradas e saídas. 
Chamamos os dispositivos de entrada e saída de I/O (Input/Output). 
São eles os monitores, 
teclados, mouses, discos rígidos, 
caixinhas de som, fones de ouvido Bluetooth, webcams e adaptadores de rede. 
Esses dispositivos I/O são gerenciados pelo kernel, 
que precisa carregar os drivers que são usados, 
para que possamos reconhecer e conversar com esses tipos de hardware. 
Quando o kernel inicia os drivers para se comunicar com o hardware, 
ele também gerencia a transferência de dados de entrada 
e de saída dos dispositivos. 
I/O não significa só transferência de dados entre nós e os dispositivos, 
os dispositivos também precisam falar uns com os outros. 
O kernel lida com toda a intercomunicação entre dispositivos. 
Ele também usa o método mais eficiente de transferência, 
e tenta garantir que os dados não sofram erros durante o processo. 
Quando você estiver tentando resolver um problema de máquina lenta, 
em geral é alguma deficiência de recursos de hardware. 
Se você não tem RAM suficiente, 
não dá para carregar muitos processos. 
Se você não tem processamento suficiente, 
não consegue rodar programas com rapidez. 
Se você tem entrada ou saída de dados em excesso, 
você também impede o envio ou recebimento de outros dados. É lento! 
Esses são os problemas mais comuns que você resolverá em suporte de TI. 
Conhecer as fontes potenciais dessa lentidão 
é de grande ajuda para diminuir a causa do problema. 
A solução de problemas é muito importante de qualquer função em suporte de TI. 
É por isso que mostraremos algumas práticas para solução de problemas em detalhes 
nas próximas aulas deste curso. 
Além do suporte a desktops, a identificação de gargalos 
nos servidores ou grandes sistemas de TI, 
como aplicativos da web, 
pode gerar ganhos de desempenho e melhor capacidade de resposta para os usuários.

Interação com o sistema operacional: espaço do


usuário
Bem, falamos das principais responsabilidades do kernel. 
Agora, vamos falar do aspecto principal de um sistema operacional, 
como os humanos interagem com ele. 
É o que chamamos de espaço do usuário. 
Quando interagimos com um sistema operacional, 
queremos fazer certas funções como criar arquivos e pastas, 
abrir aplicativos, excluir itens, só para ilustrar. 
Existem duas formas de interagir com o sistema operacional, 
com um shell ou uma interface gráfica de usuário. 
Existem também alguns shells que usam interfaces gráficas de usuário, 
mas vamos trabalhar com a interface de linha de comando ou shell CLIA na maior parte. 
Isso significa que usaremos só comandos de texto. 
Uma interface gráfica do usuário, ou GUI, 
é uma maneira visual de interagir com o computador. 
Usamos o mouse para clicar e arrastar, 
para abrir pastas etc. 
Podemos ver tudo o que fazemos. 
Você provavelmente usa uma interface gráfica todos os dias sem perceber. 
Para assistir a este vídeo, você deve estar usando uma GUI. 
Clicando em ícones e usando menus 
para abrir seu navegador e visitar o site do Coursera. 
As pessoas reconhecem um dispositivo ou produto com base na GUI. 
Você consegue detectar a diferença entre um computador 
com Microsoft Windows ou com Mac OS pelo design das janelas, menus e ícones. 
Você já deve ter visto GUIs em outros lugares também, 
como celulares e tablets, 
caixas eletrônicos e quiosques de aeroportos. 
O shell é basicamente um programa que interpreta 
comandos de texto e os envia ao sistema operacional para execução. 
Antes de termos interfaces visuais sofisticadas, 
comandos como "criar um arquivo" precisavam ser digitados. 
Embora tenhamos as GUIs hoje, 
o shell ainda é muito usado para executar comandos, 
especialmente por usuários avançados. 
Usuários avançados são usuários acima da média. 
No Linux, especialmente, é essencial conhecer os comandos, não apenas a GUI. 
Isso ocorre porque a maioria das máquinas com Linux atendidas em suporte de TI 
são acessadas remotamente. 
Na maioria das vezes, você não terá uma GUI. 
Existem muitos tipos diferentes de shells. 
Alguns têm características diferentes, 
outros lidam com o desempenho de forma diferente, 
mas há o mesmo conceito nos diferentes sistemas operacionais. 
Para nossos fins, vamos usar só o shell mais comum, 
Basch ou Bourne Again Shell do Linux.
Há também um shell para o Windows chamado de Powershell, 
mas não vamos falar dele aqui. 
Você aprenderá mais sobre o Powershell do Windows no terceiro curso deste programa. 
Sistemas operacionais e você: tornando-se um usuário avançado. 
Ao longo deste programa, aprenderemos a usar 
a GUI do Windows e o shell do Windows, o Powershell.
Você pode estar pensando, mas é mais fácil para mim 
navegar na GUI do que usar comandos para fazer a mesma coisa. 
Então, por que tenho que aprender os dois? 
É muito importante deixar bem claro, 
é vital saber usar um shell na função de suporte de TI. 
Algumas tarefas só podem ser feitas por meio de comandos. 
Em funções de TI mais avançadas, 
você pode ter que gerenciar milhares de máquinas. 
Não dá para clicar em um botão ou arrastar uma janela 
em cada máquina quando dá para executar um só comando. 
Você vai aprender a automatizar isso em um curso adiante. 
Usar a interface gráfica e o shell são só algumas partes, 
também vamos interagir com o sistema operacional por meio de aplicativos. 
Existem aplicativos e bibliotecas do sistema que usamos diariamente, 
como aplicativos de logging, 
configurações do sistema e muito mais. 
Ao longo deste curso, você aprenderá mais sobre o uso dos aplicativos de sistema. 
E vamos até praticar com os aplicativos usados em seu sistema operacional.

Histórico (Logs)
Imagine esta situação. 
Você está jogando seu videogame favorito e chega ao grande chefe. 
Você passou muitas horas até chegar ali, 
deixando de lado outras responsabilidades, como seu trabalho, escola e até seu banho. 
É um pouco nojento, mas compreensível. 
Então você está prestes a matar o chefe, 
quando, de repente, seu console desliga sozinho. 
Você enlouquece por um instante, 
mas se lembra, está tudo bem, 
você salvou o jogo antes do chefe. 
Agora você pode ligar o jogo novamente e partir do mesmo lugar. 
Mas seu console desliga novamente. 
E isso acontece várias vezes. 
Você, como a maioria das pessoas, fica arrasado. 
Você tem um ataque de raiva. 
Mas pouco antes de você jogar fora seu console, 
você faz um último esforço e grita: "Diga-me o que há de errado com você!" 
De repente, você ouve uma voz fraca dizendo-lhe 
o que você quer ouvir. Isso não seria incrível? 
Claro, essa situação foi um pouco exagerada, 
mas os computadores conseguem se comunicar conosco e dizer o que está errado. 
Talvez eles não sussurrem as respostas, 
mas eles conversam por meio de logs. 
Os logs são arquivos que registram eventos do sistema em nosso computador, 
igual a um diário do sistema. 
Nosso computador registra eventos como quando foi ligado, 
quando um driver foi carregado, 
e até quando algo não está funcionando na forma de mensagens de erro. 
Em todos os sistemas operacionais, 
são mantidos logs para que possamos consultá-los 
quando precisamos descobrir algo que aconteceu. 
Mas pode ser difícil navegar pelos logs, 
porque o computador grava basicamente tudo. 
Veja como é um log. 
Como você pode ver, pode ser difícil lidar com o log. 
Mas com um pouco de jeito, 
dá para descobrir o que aconteceu com o computador e achar uma solução. 
Vamos ver um caso de como o log é útil para achar um problema em outra aula. 
Vamos mergulhar nos detalhes técnicos dos logs em outro curso. 
Por enquanto, basta saber que podemos investigar 
os detalhes do computador que não são óbvios para nós. 
Infelizmente, os computadores, carros, 
e máquinas não têm voz para dizer o que há de errado quando há um problema. 
Mas até o fim deste programa, 
você poderá navegar pelos logs e entendê-los, então a voz não será necessária.

O processo de boot
Nesta aula, vamos aprender como o sistema operacional é iniciado. 
Como especialista em suporte de TI. 
você trabalhará com computadores que não conseguem inicializar. 
É importante conhecer as etapas que um sistema operacional 
segue para que você possa identificar o tipo de problema. 
Dar boot ou iniciar um computador 
vem de uma expressão em inglês com a palavra "bota". 
Basicamente, significa começar do zero 
e seguir uma série de etapas até sistema ficar operacional. 
Quando iniciamos um computador, usamos o termo boot. 
Na maioria dos sistemas operacionais, 
o processo de boot segue um padrão geral. 
Muito parecido com o modo como os carros diferentes dão partida da mesma forma. 
Colocar a chave, girar a ignição etc. 
Veja um resumo do processo de inicialização. 
Primeiro, o computador é ligado. 
Lembra-se do que aprendemos sobre a BIOS/UEFI nos vídeos anteriores? 
A BIOS/UEFI é um software de nível baixo 
que inicializa o hardware do computador para que ele seja usado. 
Então, em seguida, a BIOS/UEFI executa um processo chamado de Power On Self Test, ou POST. 
O POST faz uma série de testes de diagnóstico 
para verificar se o computador está funcionando corretamente. 
Em seguida, dependendo da configuração da BIOS/UEFI, 
um dispositivo de boot é selecionado. 
Os dispositivos conectados ao nosso sistema, como discos rígidos, 
drives USB, drives de CD etc. 
são configurados em uma ordem de inicialização. 
Os dispositivos serão verificados nesta ordem 
o computador irá procurar o que é chamado de bootloader. 
O carregador de boot é um pequeno programa que carrega o sistema operacional. 
Quando o computador encontra o bootloader em um dispositivo na ordem listada, 
ele começa a executar este programa. 
Depois começa a carregar um programa maior e mais complexo 
e, em seguida, carrega o sistema operacional. 
Quando o bootloader carrega o sistema operacional, o kernel é carregado. 
O kernel controla o acesso aos recursos do computador. 
carrega drivers e muito mais, 
para que o hardware possa conversar com o software. 
Em seguida, os processos essenciais do sistema e os itens de espaço do usuário são iniciados. 
Dentre esses processos estão login do usuário, 
ambiente de área de trabalho 
e tudo o que basicamente nos permite interagir com o sistema. 
E é isso. Depois dessas etapas simples, 
você já pode começar a trabalhar.
_____________________________________
Cindy: Drive e sua carreira
Eu diria que quando comecei,
pensei que havia dois empregos possíveis.
Administradora de sistemas ou suporte de TI.
Mas eu estava totalmente enganada.
Há uma enorme quantidade de oportunidades em TI. Você pode ser especializado em redes,
pode se especializar em bancos de dados ou em engenharia de confiabilidade.
Eu diria que não importa se você é homem,
mulher, estrangeiro, é para todos.
É só solucionar problemas de tecnologia. E qualquer um pode fazer isso.
Conheço pessoas que estão na área TI e são formadas
em ciências humanas ou gostam de cozinhar e tudo mais.
As pessoas vêm para a TI com todos os tipos de origens.
Sempre me esforcei para ser diferente e, para mim,
foi uma questão de adquirir habilidades.
As meninas não usavam computadores. E eu dizia "Nossa, você usa computador".
As meninas não sabiam dirigir carros manuais,
e eu decidi aprender a dirigir um carro manual.
Meninas não sabem andar de moto.
Eu também posso conseguir. E eu gosto de aprender.
Eu gosto de aprender muitas coisas.
Eu gosto de adquirir novas habilidades.
A tecnologia é um verdadeiro equalizador.
Para quem não tem formação na área,
é só visitar um site,
você pode ir ao Coursera e todos esses sites de cursos.
Há muita informação na Internet.
Acho que a tecnologia realmente equaliza isso
para pessoas que querem entrar em certas carreiras,
que querem aprender algo.
A disponibilidade agora é incrível. Quisera eu ter tudo isso dez anos atrás quando comecei.

Escolhendo o sistema operacional


Na última aula, que você aprendeu como um sistema operacional é inicializado.
Reproduza o vídeo começando em ::15 e siga a transcrição0:15
É um conceito importante pois você terá que resolver problemas 
de inicialização em suporte de TI. 
Agora vamos ver as etapas para selecionar e instalar um sistema operacional.
Reproduza o vídeo começando em ::25 e siga a transcrição0:25
Vamos nos concentrar nos sistemas operacionais usados em TI.
Reproduza o vídeo começando em ::29 e siga a transcrição0:29
Primeiro, vamos falar sobre a decisão de qual sistema operacional instalar 
em um ambiente empresarial.
Reproduza o vídeo começando em ::34 e siga a transcrição0:34
Em segundo lugar, vamos mergulhar no processo geral de instalação de um sistema operacional.
Reproduza o vídeo começando em ::38 e siga a transcrição0:38
Então, como se decide qual sistema operacional instalar?
Reproduza o vídeo começando em ::42 e siga a transcrição0:42
Bem, você precisa se fazer algumas perguntas. 
A decisão já foi tomada? 
Os sistemas operacionais usados por uma empresa 
têm muito a ver com os aplicativos e os sistemas que precisam rodar. 
Você está trabalhando para uma empresa 
ou serviço que requer o uso de um sistema operacional específico? 
Se assim for, a decisão é fácil. 
Se a decisão não foi tomada ou se você está procurando 
um sistema operacional para uso pessoal, será preciso se perguntar, 
que softwares precisarão rodar neste dispositivo. 
Em muitos casos, 
o software é projetado para rodar em um sistema operacional específico. 
Também é possível que o software seja plataforma cruzada, 
o que significa que pode rodar em mais de um sistema operacional. 
Outra pergunta a se fazer é: qual hardware será usado? 
Os sistemas operacionais modernos oferecem excelente suporte para hardware comum.
Reproduza o vídeo começando em :1:28 e siga a transcrição1:28
Você deve ter em mente que alguns fabricantes só permitem 
que seu próprio sistema operacional seja instalado em seu hardware. 
Ainda está confuso sobre qual sistema operacional é melhor 
para você ou sua empresa? 
Faça a leitura suplementar logo após este vídeo para saber mais. 
Há mais uma coisa que devo destacar. 
Lembre-se de que temos diferentes arquiteturas de processador: 32 bits e 64 bits. 
Nossos sistemas operacionais também serão otimizados para essa arquitetura, 
então confirme que o processador e o OS são compatíveis. 
Se você tem um processador de 64 bits, 
você também deve instalar a versão de 64 bits do sistema operacional escolhido. 
Certo. Agora que você escolheu o sistema operacional que deseja usar, 
vamos trabalhar para instalá-lo em seu hardware.
Reproduza o vídeo começando em :2:10 e siga a transcrição2:10
Muitos computadores vêm com um sistema operacional pré-instalado. 
Se você inicializar o computador nesta condição, 
o sistema operacional prosseguirá a partir do ponto em que o fornecedor o deixou.
Reproduza o vídeo começando em :2:20 e siga a transcrição2:20
Você precisará fazer algumas coisas para terminar a instalação, 
escolher o nome do computador ou nome do host, ou configurar a rede do dispositivo. 
Há mais o que fazer, mas não vamos ver isso agora. 
Quando falarmos da instalação de um sistema operacional, 
você saberá mais. 
Se você vai instalar um sistema operacional do zero, 
você pode usar diferentes mídias de instalação. 
Alguns fabricantes de sistemas operacionais vendem o sistema na forma de disco 
ou em pendrive. 
Alguns permitem que você faça reinstalações diretamente pela Internet. 
Como especialista em suporte de TI. você vai instalar um sistema operacional muitas vezes, 
então usar um único disco não será prático nem escalável. 
A escalabilidade é um conceito importante que abordaremos mais adiante. 
Se você quiser escalar ou acomodar vários computadores, 
o suporte adicional é algo que você precisa ter em mente. 
Por enquanto, você só está trabalhando com um computador, então vamos nos concentrar nisso. 
Vamos apenas usar um drive USB para instalar seu sistema operacional.
Reproduza o vídeo começando em :3:15 e siga a transcrição3:15
Alguns fabricantes de OS têm seus próprios drives USB com a imagem de instalação, 
como o Windows. 
Para o Linux, podemos carregar o sistema operacional em qualquer unidade USB. 
Você vai ver o que quero dizer com isso nos próximos vídeos. 
Até lá.

Leitura complementar sobre a escolha do


Chrome OS
https://www.makeuseof.com/tag/operating-
system-choose-next-pc/

Máquinas virtuais
Antes de começarmos a instalar o sistema operacional, 
precisamos conhecer o conceito de máquinas virtuais, ou VMs. 
A máquina virtual é apenas uma cópia de uma máquina real. 
Qual seria a função dela? 
Temos trabalhado com máquinas físicas até agora, 
mas há casos em suporte de TI, 
em que precisamos acessar uma máquina que não esteja fisicamente à nossa frente. 
Digamos que eu tenha uma máquina Windows 
e eu queira aprender outro sistema operacional como o Linux. 
Não quero comprar outro computador ou ter dois sistemas operacionais separados no meu disco. 
Em vez disso, posso usar um aplicativo como o Virtual Box 
instalar o Linux e deixá-lo completamente isolado da minha máquina. 
As máquinas virtuais usam recursos físicos como memória, 
processamento e armazenamento, mas oferecem 
o benefício adicional de rodar vários sistemas operacionais de uma só vez. 
Elas também são mais fáceis de manter. 
As máquinas virtuais tornaram-se um trunfo em muitos departamentos de TI, 
pois permitem que especialistas em suporte de TI criem novos computadores virtuais sob demanda. 
Elas também liberam os recursos usados quando não são mais necessários. 
Se você quisesse usar um software disponível só para um sistema operacional, 
seria mais fácil criar uma nova máquina virtual, 
usar o software e excluir a máquina virtual quando terminar. 
Ao longo deste treinamento, você usará VMs para fazer os exercícios práticos. 
Você trabalhará em nossa plataforma Qwiklabs. 
onde haverá tarefas criadas no contexto de um laboratório. 
Daremos as tarefas específicas que você precisará fazer e, depois que concluir, 
você receberá o respectivo crédito. 
Certo, agora que sabemos o que é uma máquina virtual, 
você viu como elas podem ser extremamente úteis. 
Vamos falar de novo sobre as VMs depois, além dos outros usos. 
Estamos falando de muitas coisas em pouco tempo. 
Vamos começar a instalar sistemas operacionais em breve, 
então fique à vontade para rever as aulas 
e compreender bem os fundamentos antes de seguir em frente.

Instalação do Linux
Agora que vimos como o Windows é instalado, 
vamos instalar o sistema operacional Linux. 
Lembra que o Linux tem muitas versões diferentes 
chamadas de distribuições? 
Existem inúmeros artigos que destacam 
os prós e os contras das centenas de distribuições. 
Vamos usar a distribuição para usuário mais popular, o Ubuntu. 
Já carreguei o Ubuntu numa unidade USB comum. 
Dica: como o Ubuntu é de código aberto, 
você pode baixar de instalação do sistema 
diretamente do site e instalá-lo usando qualquer mídia que quiser. 
Coloquei o link na próxima leitura suplementar. 
Também devo dizer que você não pode simplesmente copiar 
o arquivo de instalação para uma unidade USB e esperar que funcione. 
É preciso copiar de forma a tornar a unidade USB inicializável a partir da BIOS. 
Para carregar a imagem em sua unidade USB e torná-la inicializável, 
você pode usar uma ferramenta como etcher.io. 
Você também tem acesso ao link para a ferramenta na leitura suplementar. 
Certo. Deixe-me ligar. E lembre-se, 
temos que confirmar que a unidade de inicialização é o dispositivo USB.
Reproduza o vídeo começando em :1:16 e siga a transcrição1:16
Tudo certo. Agora que está carregado, 
você verá uma opção de tentar usar o sistema operacional 
ou apenas instalá-lo. 
Vamos fazer uma nova instalação do sistema operacional. 
O logotipo do Ubuntu irá aparecer, 
e teremos de passar por várias telas de carregamento 
enquanto o sistema é instalado. Tudo certo. 
Vamos pular todas estas opções e vamos escolher 
os padrões por enquanto. 
Tudo certo. 
Agora está sendo pedido um nome, 
nome do computador ou nome do host e nome de usuário. 
O nome do host é usado para identificar o computador quando ele precisa conversar com outros
computadores. 
Em nosso computador pessoal, 
é comum usar apenas nosso nome. 
Mas em uma organização de TI, 
é bom escolher um nome de host que siga uma certa padronização. 
Vamos falar disso em uma aula posterior, mas por enquanto, 
vamos usar o padrão da indústria para o nome do host, 
como o nome de usuário, hífen, localização. 
Então eu vou colocar meu nome, Cindy. 
E para o campo do nome do host, 
vou digitar cindy-nyc. 
E para a senha... 
Vou só digitar uma senha aqui 
e depois vou confirmar. 
Entendi. Vou clicar em "Avançar".
Reproduza o vídeo começando em :2:49 e siga a transcrição2:49
E então teremos de reiniciar o PC após o término. 
Ótimo. 
Agora que foi reiniciado, 
vamos fazer login. 
Ótimo. 
Agora estamos na área de trabalho do Ubuntu. 
Aqui você pode ver onde os aplicativos estão dispostos. 
No lado esquerdo, 
temos uma barra em que podemos adicionar atalhos. 
Esse layout pode mudar, já que o Ubuntu 
vai mudar seu ambiente de trabalho em breve. 
Para saber mais, 
você pode conferir a próxima leitura suplementar. 
Na barra superior direita, 
você verá configurações rápidas para o seu computador, 
como conectividade de rede, conectividade Bluetooth, som e volume. 
Há também a hora, um menu para desligar, 
reiniciar, hibernar e sair da sua máquina. 
Vamos clicar nesse menu e selecionar "Configurações do sistema". 
Aqui você pode alterar suas configurações do sistema, como o protetor de tela, 
resolução, configurações de hardware e muito mais. 
Vamos voltar à área de trabalho e selecionar este ícone para arquivos.
Reproduza o vídeo começando em :4:16 e siga a transcrição4:16
Abre-se uma janela onde podemos ver nossos arquivos. 
Dá para ver os diferentes arquivos e pastas aqui. 
Se eu clicar em "Computador", 
sou levada para o diretório principal do meu sistema. 
Nós vamos analisar isso com detalhes em um curso posterior. 
Então, por enquanto, vou voltar para a área de trabalho. 
Agora vamos fazer a mesma coisa que fizemos no Windows e vamos criar um arquivo. 
Desta vez, vamos usar só comandos no shell. 
Já que estamos em uma interface gráfica, 
não temos um programa chamado Bash para rodar os comandos. 
Em vez disso, abrimos o utilitário de pesquisa 
e procuramos um aplicativo chamado Terminal. 
Ao abrir o Terminal, 
você vê seu nome de usuário, arroba, 
o nome do host, dois pontos, til, 
barra desktop como prompt de comando. 
Isso é usado para mostrar quem está executando o comando. 
Será mais importante em outro curso quando você trocar de usuário. 
A última parte do prompt mostra onde você está no computador. 
Aprenderemos mais sobre isso em outra aula também. 
Mas você pode ver que estamos atualmente na área de trabalho. 
Dá para ver se estamos usando o shell Bash 
com um simples comando: echo, cifrão, SHELL. 
O comando "echo" mostra as opções de texto na tela. 
Neste caso, o argumento ''cifrão SHELL'' é o shell atual, 
barra bin, barra bash ou bash. 
Você pode até fazer "ecoar", 
e ele mostraria "Hello", nada muito útil. 
Entendi. Vamos criar um arquivo no shell. 
Eu vou usar o comando "touch". 
Touch my_super_cool_file. 
E aqui, você pode ver que ele criou um arquivo na área de trabalho. 
Existem muitos comandos diferentes que você pode usar para criar um arquivo, 
mas o comando "touch" é um dos mais simples. 
Neste momento, pode ser difícil entender por que você precisa 
gravar os comandos shell do Linux sendo mais fácil usar uma GUI do Windows. 
Se você estiver trabalhando com máquinas Linux, 
é essencial conhecer esses comandos. 
Aprender comandos é um trampolim para automação de processos, 
que vamos abordar em outro curso. 
Não se preocupe, até o final deste treinamento, 
você vai estar superconfortável com o shell. 
Talvez você rode comandos mais rápido que na GUI.

Leitura complementar sobre o Ubuntu


https://ubuntu.com/
Para ajudá-lo a carregar sua imagem de instalação em um drive USB, experimente a
ferramenta etcher.io.
Para mais informações sobre por que o Ubuntu irá mudar sua interface de usuário
padrão para o GNOME, clique aqui.

O que é o Chrome OS?


Já falamos que o Chrome OS é um sistema operacional baseado no Linux. 
Agora vamos ver suas diferenças das outras distribuições baseadas em Linux. 
Diferentemente de outros sistemas operacionais, 
o Chrome OS tem um objetivo principal: 
ser uma forma segura e simples do usuário interagir com a web. 
Há pouco tempo, 
a ideia de ter um sistema operacional dedicado à execução 
de um navegador web seria estranha, como se o computador estivesse sendo subutilizado. 
Mas hoje você pode fazer muito pelo navegador. 
Você pode se comunicar por e-mail, 
criar e compartilhar documentos, 
editar fotos e até mesmo conectar-se remotamente a outro computador. E a lista continua aumentando. 
O desenvolvimento de novos aplicativos web aumenta 
a quantidade de coisas que os usuários fazem no navegador web. 
Isso significa que, para muitas pessoas, 
a maior parte do uso dos computadores acontece dentro do navegador. 
Então, ter um sistema operacional feito em torno de um navegador web faz muito sentido. 
Dito isso, o Chrome OS é mais que um sistema operacional de navegação na web. 
ele também executa aplicativos Android e Linux em contêineres. 
A interface do usuário do Chrome OS é personalizada para você ver apenas a interface do Chrome. 
O gerenciamento de processos, a memória e entradas e saídas ainda estão acontecendo nos bastidores. 
Mas você não precisa lidar com nada disso. 
Você só precisa lidar com o navegador. 
As máquinas do Chrome OS vêm pré-instaladas com o sistema operacional. 
Então, não há nada para instalarmos. 
Quando você faz login em uma máquina do Chrome OS, 
você também está fazendo login no navegador Google Chrome. Vamos fazer isso agora. 
Fiz login na minha máquina do Chrome OS. 
Está puxando minhas configurações e extensões do Chrome a partir 
das configurações armazenadas em servidores externos do Chrome. 
Isso significa que as máquinas do Chrome OS são intercambiáveis 
porque a maioria dos dados é armazenada na nuvem, não localmente. 
Aprenderemos mais sobre a nuvem em aulas futuras, 
mas, por enquanto, pense na nuvem como outro lugar. 
Duas outras características do Chrome OS são: 
é extremamente simples de usar e muito difícil para os usuários desconfigurarem. 
Como os usuários não têm direitos de administrador nas máquinas do Chrome OS, 
eles não conseguem alterar as configurações do sistema. 
Além disso, o Chrome OS 
tem um mecanismo de atualização que inclui um sistema de segurança caso algo dê errado. 
Isso significa que o usuário não precisa se preocupar com problemas 
invasões do sistema porque ele foi projetado para ficar ativo e em execução. 
Por fim, o Chrome OS tem uma forte segurança, 
sobre a qual vamos aprender em um outro curso. 
Por enquanto, você só precisa saber que o Chrome OS permite que os usuários naveguem 
na web sem se preocupar com malwares 
e compartilhem máquinas mantendo seus dados privados. 
Ele também garante que os dados não sejam afetados se a máquina for roubada. 
Em suma, não há necessidade de se preocupar com programas nocivos 
porque o Chrome OS se defende dessas ameaças. 
Como especialista em suporte de TI. 
você pode encontrar alguns usuários 
de sua empresa que preferem o Chrome OS para trabalhar. 
Como ele é muito fácil de usar e raramente dá problemas, 
não falaremos do suporte com mais detalhes.

Instalação do Mac OS X
O último sistema operacional que vamos abordar é o Mac OS da Apple. 
Não vamos entrar em muitos detalhes sobre como usar este sistema operacional. 
Em vez disso, vamos nos concentrar nas dificuldades do Windows e do Linux. 
Mas se você conhecer um sistema operacional, 
poderá navegar em qualquer sistema operacional. 
Felizmente, todos os computadores da Apple vêm com o Mac OS pré-instalado, 
então vamos cobrir apenas as partes importantes do sistema operacional. 
Bem, aqui está a área de trabalho do Mac.
Reproduza o vídeo começando em ::37 e siga a transcrição0:37
Na parte inferior, você vê um documento com atalhos para seus aplicativos.
Reproduza o vídeo começando em ::42 e siga a transcrição0:42
No canto superior direito, há informações do sistema como hora e data, 
conectividade de rede, 
carga da bateria, se for um laptop, e algumas outras configurações rápidas.
Reproduza o vídeo começando em ::51 e siga a transcrição0:51
No canto superior esquerdo, você vê o ícone da Apple.
Reproduza o vídeo começando em ::55 e siga a transcrição0:55
Esta barra altera as opções do menu dependendo de qual aplicativo está aberto. 
Mas se você clicar no ícone da Apple, verá mais opções.
Reproduza o vídeo começando em :1:3 e siga a transcrição1:03
Você pode hibernar, reiniciar ou desligar o computador a partir daqui. 
A coisa mais importante é o item de menu Preferências de sistema.
Reproduza o vídeo começando em :1:17 e siga a transcrição1:17
Ele exibe as configurações do sistema. 
Nessa parte, podemos alterar qualquer configuração do computador, 
como definir a orientação de rolagem do mouse, adicionar e remover usuários. 
configurar impressoras, mudar o protetor de tela, adicionar dispositivos Bluetooth e muito mais.
Reproduza o vídeo começando em :1:43 e siga a transcrição1:43
Vou clicar na área de trabalho agora.
Reproduza o vídeo começando em :1:47 e siga a transcrição1:47
Você vai ver que a configuração superior esquerda mudou de Preferências do sistema para o Finder. 
O Finder é o gerenciador de arquivos dos Macs. 
Se você abrir uma nova janela do Finder, você pode navegar pelos arquivos 
e pelas pastas do seu Mac.
Reproduza o vídeo começando em :2:7 e siga a transcrição2:07
Se você clicar com o botão direito em um arquivo, ou se estiver usando um laptop Mac, 
você pode usar um clique de dois dedos em um arquivo, você pode visualizar mais informações 
executar muitas tarefas diferentes.
Reproduza o vídeo começando em :2:17 e siga a transcrição2:17
O Mac, que é completamente diferente do sistema operacional Windows 
ou Linux, opera de forma muito semelhante, com opções de menu semelhantes.
Reproduza o vídeo começando em :2:25 e siga a transcrição2:25
Uau! Você percorreu um longo caminho. 
Você foi conheceu os principais sistemas operacionais usados hoje, 
conseguiu manipular um pouco o sistema e até executou algumas tarefas comuns. 
Muito bem.
Reproduza o vídeo começando em :2:37 e siga a transcrição2:37
É importante em qualquer função de TI conhecer os desafios 
dos sistemas operacionais, pois você vai interagir com eles todos os dias. 
Temos um curso separado que ensina todos os elementos essenciais 
para navegar pelo Windows e pelo Linux. 
Mas, por enquanto, parabenize-se! 
Você acabou de dar o primeiro passo para a compreensão dos sistemas operacionais. 
Instalar, gerenciar e navegar pelos sistemas operacionais 
são tarefas que você terá que fazer diariamente enquanto especialista em suporte de TI. 
Você pode ter que fazer isso 
em centenas, talvez milhares de máquinas em um dia. 
Antes de você chegar ao próximo módulo, temos duas avaliações para você. 
São testes sobre a criação de arquivos, tanto no Windows como no Linux. 
Você pode voltar e rever os vídeos de novo se você precisar de refrescar a memória. 
No mais, é minha hora de ir. A gente se vê de novo no terceiro curso, 
Sistemas operacionais e você: tornando-se um usuário avançado. 
No próximo módulo, você vai conhecer meu amigo 
e colega de trabalho Victor Escobido, que vai falar sobre Internet e redes.

Introdução ao Qwiklabs
Você está prestes a fazer exercícios usando a plataforma de aprendizado Qwiklabs, 
viabilizada pelo Google Cloud Console. 
Antes de nos aprofundarmos, 
vamos aprender um pouco mais sobre a plataforma. 
O Qwiklabs é um ambiente de aprendizado on-line 
que te permite viver cenários reais 
que você pode encontrar como especialista em suporte de TI. 
O Qwiklabs funciona com o Google Cloud Console 
para simular ou criar máquinas virtuais. 
Como dissemos anteriormente, 
uma máquina virtual ou VM 
simula um computador pelo uso de um software. 
Esta máquina virtual será executada em Linux ou Windows, 
dependendo do exercício. 
O Qwiklabs suporta os dois. 
Assim você pode aprender a trabalhar em qualquer sistema operacional, 
independentemente do sistema que está rodando em sua máquina. 
As máquinas virtuais Qwiklabs são executadas na nuvem. 
Então você pode acessá-las pela Internet de onde você estiver. 
Como falamos antes, 
quando dizemos que um serviço está rodando na nuvem, 
ele está rodando em um data center ou em outros servidores remotos. 
Após este vídeo, daremos instruções sobre como acessar e fazer os laboratórios. 
Você usará o Qwiklabs em muitos cursos deste treinamento. 
Então passe um tempo aprendendo a utilizar a plataforma. 
Cada Qwiklab criará uma conta temporária no Google Cloud Console, 
que expira quando o laboratório termina. 
Você precisará repetir as etapas de login para cada Qwiklab deste treinamento, 
sendo necessário fazer login com as credenciais recém-criadas a cada vez. 
Sugerimos que você experimente estes exercícios em uma máquina local, 
se você puder. 
Lembre-se que a prática gera perfeição, 
esteja você aprendendo algo novo ou tentando melhorar suas habilidades. 
Então pratique usando o Qwiklabs o máximo que puder.
Instruções para acessar o Qwiklabs
Nas avaliações a seguir, você usará Qwiklabs para "acelerar" ou criar máquinas virtuais. Por usando Qwiklabs,
você não precisa de adquirir ou instalar software e pode usar os sistemas operacionais do Linux e Windows
como se estivessem instalados em sua máquina local.
Detalhes importantes:
 Você terá 60 minutos para concluir cada laboratório.
 Você experimentará um atraso enquanto os laboratórios carregam (principalmente para os laboratórios
do Windows), bem como para as instâncias de trabalho das Linux e VMs do Windows (Virtual
Machines/Máquinas Virtuais). Então, Por favor aguarde alguns minutos.
 Certifique-se de acessar os laboratórios diretamente através do Coursera e não no catálogo do
Qwiklabs. Se você acessar laboratórios por meio do catálogo Qwiklabs, você não receberá uma nota.
(Como você sabe, é necessária uma nota de aprovação para concluir o curso.)
 Você se conectará com uma nova VM para cada laboratório com credenciais temporárias criadas para
você; estes vão durar apenas pela duração do laboratório.
 A nota é calculada quando o laboratório está concluído. Certifique-se de clicar em "Terminar
Laboratório" quando feito. Nota: depois de encerrar o laboratório, você não poderá acessar seu trabalho
anterior.
 Para se familiarizar como entrar nos laboratórios, encontre os links abaixo para o sistema operacional
da máquina que você está usando atualmente para uma visualização dos passos principais. Observe
que, os recursos de vídeo vinculados abaixo não tenham uma narração ou qualquer áudio, todos os
detalhes importantes ainda serão armazenados no conjunto de instruções de cada laboratório na
plataforma do Qwiklabs.
Vídeos de demonstração para acessar os laboratório do Linux:
 Para usuários do Windows
 Para usuários do MAC
 Para usuários do Linux
 Para usuários do SO Chrome
Vídeos de demonstração para acessar os laboratório do Windows:
 Para usuários do Windows
 Para usuários do MAC
 Para usuários do Linux
 Para usuários do SO Chrome

Linux Qwiklabs para usuários do Windows


https://www.youtube.com/watch?v=U-CLztqdXhs

Windows Qwiklabs para usuários do Windows


https://www.youtube.com/watch?v=pwAp3FaUdkA

Criar uma pasta no Windows


Visão geral do Qwiklabs
Para este Certificado profissional de suporte de TI, usaremos uma ferramenta chamada Qwiklabs para simular
muitas das experiências do mundo real que você pode encontrar quando estiver ocupando um cargo de TI.
Neste laboratório, você se acostumará com a plataforma Qwiklabs e interagirá com uma máquina virtual do
Windows.
Introdução ao laboratório
Este laboratório apresentará a plataforma de aprendizado on-line da Qwiklabs, desenvolvida pelo Google Cloud
Console. Você vai interagir com o Qwiklabs em vários cursos do programa "Certificado de suporte técnico de
TI", por isso é importante seguir estas instruções cuidadosamente. Daremos algumas informações básicas
sobre o que são os Qwiklabs, como esses laboratórios ajudarão a treiná-lo a ser especialista em suporte de TI e
como configurar seu Google Cloud Console pelo Qwiklabs. Por fim, você irá interagir com os materiais do
laboratório. Pronto? Vamos começar!
O que você precisa fazer
Existem dois objetivos de aprendizado para este laboratório:
 Se familiarizar com o ambiente Qwiklabs e fazer login no Google Cloud Console.
 Acessar uma instância de VM do Windows e criar um arquivo básico usando a interface gráfica do
usuário (GUI).
Você terá 60 minutos para concluir este laboratório.

Este curso utiliza uma ferramenta de terceiros, Criar uma pasta no Windows, para melhorar a experiência da
aprendizagem. A ferramenta referenciará informações básicas, como seu nome, e-mail e sua ID do Coursera.

Noções básicas de redes


Quando as pessoas pensam na Internet, imaginam uma nuvem mágica que permite acessar seus sites
favoritos, fazer compras on-line, e ver as aparentemente infinitas fotos de gato. Mas não existe mágica. Não
existe uma entidade misteriosa que nos dá a foto de um gato quando queremos. A Internet é só uma
interconexão de computadores de todo o mundo, como uma teia de aranha gigantesca que nos une.
Chamamos essa interconexão de rede. Os computadores de uma rede podem conversar entre si e enviar
dados uns aos outros. Você pode ter uma rede simples com apenas dois computadores. Na verdade, talvez
você já tenha a própria rede residencial que conecta os dispositivos da sua casa. Vamos pensar em uma escala
maior. E os computadores da sua escola ou do seu trabalho? Eles estão em uma rede? Com certeza, sim.
Todos os computadores estão conectados a uma rede. É possível conectar suas redes residencial, escolar e do
trabalho? Sem dúvida. Seu local de trabalho se conecta a uma rede maior e essa rede se conecta a uma maior
ainda, e assim por diante. No fim das contas, são bilhões de computadores interconectados, dando origem a o
que chamamos de Internet. Você, como a maioria das pessoas, provavelmente acessa a Internet por um
navegador, como o Mozilla Firefox, o Google Chrome, o Microsoft Edge ou outro. Esse acesso acontece pela
World Wide Web. Mas não cometa o erro de pensar que a Internet é a World Wide Web. A Internet são os fios e
a conexão física de computadores em todo o mundo. A web são as informações da Internet. Usamos a web
para acessar a Internet por um link, como www.google.com. A World Wide Web não é a única maneira de
acessar a Internet. Programas de e-mail, bate-papo e compartilhamento de arquivos são formas de acessar a
Internet. Na área de TI, os atos de gerenciar, desenvolver e projetar redes é chamado de networking.
Networking é um campo grande e superimportante da TI. Existem empregos especializados, cursos de pós-
graduação, e infinita literatura dedicados inteiramente ao networking. Se você trabalha no ramo de TI, é vital
para você entender os fundamentos do networking. Então, como funciona? Para responder a essa pergunta,
vamos precisar de muito mais tempo. Felizmente, temos um curso inteiramente dedicado a esse assunto.
Veremos o networking apenas de forma superficial aqui. A Internet é composta por uma enorme rede de
satélites, redes celulares e cabos físicos sob o solo. Na verdade, não nos conectamos à Internet diretamente.
Computadores chamados de servidores é que se conectam à Internet. Servidores armazenam os sites que
usamos, como Wikipédia, Google, Reddit e BBC. Esses sites exibem o conteúdo. Os aparelhos que usamos,
como celulares, notebooks, videogames e outros, são chamados de clientes. Os clientes solicitam o conteúdo,
como fotos e sites, aos servidores. Os clientes não se conectam diretamente à Internet. Na verdade, se
conectam a uma rede fornecida por um provedor de Internet, ou ISP, como a CenturyLink, a Level 3, a
Comcast, a Telefonica e algumas outras. Os ISPs já criaram redes e aplicaram todo o cabeamento físico
necessário que conecta milhões de computadores a uma rede. Eles também conectam a outras redes e outros
ISPs. Essas outras redes se conectam às redes do Google, Reddit e de universidades. Basicamente, todas as
outras redes do mundo, juntas, formam uma rede de computadores gigante chamada Internet. Mas como os
clientes sabem chegar aos servidores? Bom, como se envia uma carta para alguém? Você coloca seu
endereço na carta e envia para o endereço da pessoa que deve receber a carta. Como as casas, os
computadores também têm endereços. Os computadores de uma rede têm um identificador chamado endereço
IP. Um endereço IP é composto de dígitos, como 100.1.4.3. Quando acessamos um site como
www.coursera.com, estamos indo até o endereço IP deles, como 172.217.6.46. Dispositivos que podem se
conectar a redes têm outro identificador chamado endereço MAC. Os endereços MAC geralmente são
permanentes e codificados no dispositivo. Esse é um exemplo de endereço MAC. Quando você envia ou
recebe dados através de uma rede, precisa ter um IP e um endereço MAC. Você pode estar pensando: por que
precisamos de dois números diferentes para identificar a mesma coisa? Boa pergunta. Vamos pensar na
analogia da carta de novo. Um endereço IP é o endereço da sua casa, e o endereço MAC é o nome do
destinatário da carta. O objetivo é garantir que sua carta chegue ao local certo e à pessoa certa. Um exemplo
mais simples para as cartas seria o seguinte. Estou em Nova York e recebi uma carta que quero enviar a uma
amiga, Mey. Mey está do outro lado do mundo, em Tóquio. Então, a carta vai passar por muitos lugares antes
de chegar a ela. Coloquei o nome e o endereço dela e o meu na carta. Ao entregar a carta no correio, o
atendente olha para ela. E pensa: "Não sei como chegar a Tóquio daqui, mas tem um caminhão indo para o
Texas." Ele coloca a carta nesse caminhão. No correio do Texas, uma pessoa do correio olha para a carta e
pensa: "Não sei como chegar a Tóquio daqui, mas tem um caminhão indo para São Francisco." Ela coloca a
carta nesse caminhão. No correio de São Francisco, outro funcionário olha para a carta. E pensa: "Ah, tem um
avião indo para Tóquio." E coloca a carta no avião. Quando finalmente chega a Tóquio, o carteiro lá pensa: "Sei
onde a Mey mora" e entrega a carta para ela. Obviamente, há muito mais detalhes na entrega de cartas do que
isso, mas esse processo é similar ao modo com que as informações trafegam pela Internet. Vale destacar que
os dados enviados por uma rede vão em pacotes. Existem pequenos pedaços de dado, que são isso mesmo
que você pensou: zeros e uns. Não importa se são fotos, e-mails, músicas ou textos. Para movimentar dados
pela rede, dividimos eles em pacotes. Quando um pacote chega ao seu destino, ele volta para sua ordem
original. Um pacote é como uma carta. Vamos analisar esse processo de novo, mas desta vez, usaremos
endereços IP e endereços MAC. Natalie tem um computador com endereço IP 113.8.81.2. Ela quer ir a
google.com e buscar fotos de gato. Antes de fazer isso, seu computador tem que enviar um pacote para
perguntar a google.com se pode acessar o site. O pacote sabe que o endereço IP de google.com é
172.217.6.46, mas ainda não sabe como chegar lá. O pacote viaja de um lugar para outro em cada destino, e lá
pergunta: "Opa, sabe onde fica o google.com?" Possivelmente, ele será encaminhado a outro destino que pode
aproximar o pacote de google.com cada vez mais. Ao chegar a um destino que pode entregar o pacote a um
servidor de google.com, o Google envia um pacote a Natalie que diz que ela pode acessar quantas fotos de
gato quiser. Há muitos detalhes técnicos que deixamos de fora dessa explicação, mas não se preocupe. Você
aprenderá tudo sobre o assunto no curso de networking deste programa. Por enquanto, você só precisa saber
que a Internet não é mágica.

Hardware de redes
Agora que entendemos o que são redes, vamos falar sobre como estão conectadas. Existem várias maneiras de
conectar computadores a uma rede. Vamos falar só das principais neste curso. Primeiro, temos o cabo Ethernet, que
permite se conectar fisicamente à rede por meio de um cabo. Como vimos nas últimas aulas, na parte de trás de um
desktop tem uma porta de rede para se conectar um cabo Ethernet. Outra maneira de se conectar a uma rede é pelo
Wi-Fi, que significa rede sem fio. A maioria dos sistemas de computação modernos tem tecnologia sem fio, como
celulares, smart TVs e notebooks. Conectamos os aparelhos a redes sem fio usando rádios e antenas. O último método
que vamos abordar são os cabos de fibra óptica. Este é o método mais caro, mas os cabos de fibra óptica são mais
velozes do que todos os outros métodos. Fibra óptica tem esse nome porque os cabos contêm fibras de vidro que
movem dados através da luz, não da eletricidade. Isso quer dizer que enviamos zeros e uns por um feixe de luz, não por
uma corrente elétrica, através de um fio de cobre. Massa, não é? Mas os cabos precisam se conectar a algo. Não temos
milhões de cabos que saem e entram nos computadores para conectar todos, na realidade, os computadores se
conectam a alguns dispositivos que ajudam a organizar a rede. O primeiro dispositivo ao qual seu computador se
conecta é o roteador. O roteador conecta diversos dispositivos entre si e ajuda a rotear o tráfego da rede. Digamos que
temos quatro computadores: A, B, C e D, conectados à mesma rede por meio de um roteador. Você deseja enviar um
arquivo do computador A para o B. Os pacotes passam pelo roteador, e ele utiliza protocolos de rede para ajudar a
determinar para onde enviar o pacote. Vamos falar sobre protocolos de rede no próximo vídeo. Por enquanto, basta
saber que o roteador usa um conjunto de regras para descobrir para onde enviar dados. Bom, agora nosso pacote é
encaminhado do computador A para o B. E para enviar um pacote para um computador de fora dessa rede? E se
quiséssemos enviar um pacote para o computador do nosso amigo Alejandro? Alejandro está em outra rede.
Felizmente, nosso roteador consegue fazer isso também. O pacote será roteado fora da nossa rede, para a rede do ISP.
Usando protocolos de rede, ela descobre onde está o computador de Alejandro. Durante este processo, o pacote está
percorrendo muitos roteadores, switches e hubs. Switches e hubs também são dispositivos que ajudam os dados a
trafegar. Os switches são como a sala de expedição de um prédio. Os roteadores recebem as cartas do prédio. Mas, ao
recebê-las, usamos a sala de expedição para saber para onde cada carta deve ir. Os hubs são como memorandos de
uma empresa. Eles não sabem para quem enviar o memorando, então enviam para todos. É importante entender como
dispositivos de rede funcionam porque provavelmente vai receber relatos de problemas para acessar a Internet de
usuários. Uma boa ideia é examinar a pilha de rede de baixo para cima. Uma pilha de tecnologia, neste caso, uma pilha
de rede, é apenas um conjunto de hardware ou software que fornece a infraestrutura de um computador. Assim, a pilha
de redes são todos os componentes da rede de computadores. É provável que você precise analisar pilhas de rede no
seu trabalho. Para começar, você deve verificar se os computadores dos usuários funcionam bem. Depois, o foco seria
outros possíveis pontos de falha, como cabos, switches e roteadores, que trabalham juntos para acessar a Internet.
Vamos ver mais detalhes os diferentes dispositivos de rede no curso "Networking". Por enquanto, vamos nos roteando
para a próxima aula: a linguagem da Internet.

Linguagem da internet
Falamos rapidamente sobre os protocolos de rede que nossos dispositivos usam 
para levar os pacotes de um destino a outro, 
mas o que são os protocolos? 
Existem muitos protocolos de rede, 
e todos são necessários para colocarmos os pacotes no lugar certo. 
Os protocolos de rede são como um conjunto de regras para transferir dados em uma rede. 
Imagine que você mandou uma carta para sua amiga Sasha, na Califórnia, 
mas o correio enviou para outra Sasha, de Nova York. 
Isso felizmente não deve acontecer, 
já que o correio tem regras 
para garantir que a carta seja enviada ao endereço correto. 
Nossos protocolos de rede fazem a mesma coisa. 
Há regras que garantem que os pacotes sejam roteados de forma eficiente, 
não sejam corrompidos, sejam seguros, 
sigam para a máquina certa e sejam nomeados corretamente. 
Você entendeu a lógica. Vamos falar de protocolos de rede específicos mais adiante, 
mas existem dois protocolos que você tem que conhecer. 
O protocolo de controle de transmissão e o protocolo da Internet, 
ou TCP/IP, 
que se tornaram os protocolos dominantes da Internet. 
O protocolo da Internet, ou IP, 
é responsável por entregar os pacotes aos computadores certos. 
Lembra dos endereços que os computadores usam para encontrar algo na rede? 
Eles são chamados de endereços IP, ou endereços do protocolo da Internet. 
O protocolo da Internet ajuda a rotear informações. 
O protocolo de controle de transmissão ou TCP, 
é quem cuida do envio seguro das informações de uma rede a outra. 
Este protocolo foi parte importante da criação da 
Internet por permitir compartilhar informações entre computadores. 
No próximo curso, vamos passar muito tempo estudando esses protocolos 
e os bits e bytes das redes de computador, continue com a gente. 
Por enquanto, você entende superficialmente como a Internet funciona com TCP/IP.

Web
Existem muitas formas diferentes de usar a Internet, disso todos nós sabemos. 
Mas quero falar de uma das formas mais predominantes de se acessar 
a Internet, que é pela Web. 
Todos os sites podem ser acessados pela Web. 
Sites são basicamente documentos de texto que formatamos com HTML, 
ou linguagem de marcação de hipertexto. 
É uma linguagem de codificação usada pelos navegadores Web. 
Páginas da web geralmente são feitas de componentes muito básicos. 
Elas têm conteúdo multimídia, como texto, imagens, áudio e vídeo. 
Para navegar até um site, 
você digita um URL, como www.reddit.com. 
Um URL, que significa localizador uniforme de recursos, 
é apenas um endereço da Web, como o endereço de uma casa. 
Percebeu o "www" no URL? 
Significa World Wide Web. 
A segunda parte, "reddit.com", é o que chamamos de nome de domínio. 
Qualquer um pode registrar um nome de domínio. 
É só o nome do site. 
Ao garantir um nome, ele é registrado na ICANN, a Corporação da Internet para a 
Atribuição de Nomes e Números. 
Quando o nome de domínio é registrado junto à ICANN, 
ninguém mais pode usar esse nome, a menos que fique disponível novamente. 
A última parte do URL neste caso é ".com". 
Mas você também pode usar terminações diferentes, como reddit.net ou reddit.org. 
As diversas terminações de nome de domínio são padrões 
que indicam o tipo do site. 
Um domínio que termina em .edu é, na maioria dos casos, usado para instituições de ensino. 
Lembra de como os computadores usam endereços IP para encontrar outro computador? 
Você pode fazer a mesma coisa se quiser encontrar um computador na Internet. 
Vamos testar. Digite 172.217.6.46 em um navegador web e pressione Enter. 
Espere um minuto. 
O que aconteceu? 
Como paramos na página inicial do Google? 
É porque o endereço IP, 172.217.6.46 direciona 
para a página inicial do Google através de um protocolo essencial da Web, o Sistema de Nomes de Domínio, ou DNS. 
O DNS funciona como a pasta da Internet e 
nos permite usar palavras legíveis por humanos para direcionar a um endereço IP. 
O computador não sabe o que é google.com. 
Só sabe como chegar a um endereço IP. 
Com o DNS, ele pode mapear o endereço IP do Google com google.com. 
Toda vez que você acessa um site, seu computador faz uma busca de DNS 
para encontrar o endereço IP do o nome do site que você digitou. 
Esse truque pode ser um bom primeiro passo para diagnosticar certos tipos de erros de DNS. 
Então, se você conseguir acessar um site pelo endereço IP, mas 
não pelo nome de domínio legível, é bem provável 
que haja um problema na configuração de DNS da sua rede. 
Entender os endereços IP pode ser útil em 
todos os tipos de situação com que você pode se deparar como especialista em suporte de TI. 
A origem das solicitações da Internet normalmente é identificada pelos endereços IP 
e por registros do servidor. 
Muitas partes da infraestrutura de TI precisam ter alguma configuração de endereço IP 
aplicada para funcionar. 
O DNS é um sistema enorme. Vamos falar sobre ele depois. 
Agora que você sabe o básico de como a Internet funciona, vou encerrar essa aula 
e deixar você nas mãos muito capazes do meu amigo Gian Becuza. 
A gente se vê de novo no curso 2, "Os bits e bytes das redes de computador". 
Mas, nas próximas aulas, 
Gian vai falar sobre o boom inacreditável da era da Internet.

História da internet
Você aprendeu o que é a Internet e um pouco sobre como ela funciona. 
Agora, vamos dar um passo para trás entender por que ela foi criada. 
Mas, antes disso, quero me apresentar para você. 
Meu nome é Gian Spicuzza, sou gerente de programas de segurança do Android. 
Ajudo a proteger mais de 2 bilhões de usuários do Android gerenciando novos recursos 
de segurança de cada uma das versões do Android. 
Sempre amei tecnologia, e trabalho com TI desde os 16 anos, 
inclusive durante a faculdade. 
Meu passatempo era ler sobre novas tecnologias 
e montar servidores com peças de computadores antigos no meu porão. 
Minha lembrança mais antiga de mexer com tecnologia é de quando eu esperava meus pais dormirem 
para poder discar a Internet em silêncio enquanto o telefone estava livre 
e navegar nos sites e ler coisas aleatórias sobre tecnologia a noite toda. 
Meus primeiros empregos foram como um faz-tudo em TI para três organizações sem fins lucrativos. 
Foi muito estressante, mas muito empolgante ser responsável por tudo. 
Desde configurar e administrar servidores de back-up 
até ensinar novos funcionários a acessar o e-mail e usar o computador. 
Estou muito empolgado de estar aqui com você. 
Nunca fui de me dar bem nos testes, e minhas notas confirmam isso. 
Mas sabia que trabalhando duro 
e perseverando, eu poderia ter uma carreira em TI, e você também pode. 
Então vamos começar a ver um pouco mais esse mundo da Internet.
Reproduza o vídeo começando em :1:26 e siga a transcrição1:26
A Internet se tornou parte essencial da nossa vida. 
Contas bancárias, entretenimento, notícias e educação: tudo está na Internet. 
É importante saber o porquê disso, 
já que alguns dos projetos originais da Internet tiveram suas limitações. 
Como especialista em suporte de TI. 
você deve entender o que o futuro da Internet reserva para nós e por quê. 
Vamos voltar no tempo, para os anos 50, onde tudo começou. 
Lembre-se: naquela época, os computadores eram enormes. 
Se você fosse programador, 
teria que interagir diretamente com esses computadores gigantes. 
Você ficaria de saco cheio, principalmente se tivessem várias pessoas 
que quisessem usar o único recurso de computação disponível. 
No final dos anos 60, o governo dos EUA criou um projeto chamado DARPA. 
Ele acabou criando a versão mais antiga da Internet que vemos hoje 
com a ARPANET. 
Na época, os programadores podiam compartilhar o mesmo recurso de computação 
por terem a capacidade de acessá-lo remotamente. 
Mas ainda havia um grande problema: 
as redes não se comunicavam. 
Isso durou até a década de 70, quando houve um avanço fundamental 
nas redes de computador. 
Graças aos cientistas Vinton Cerf e Bob Kahn, 
que criaram o método que chamamos de protocolo de controle de transmissão 
e o protocolo da Internet, ou TCP/IP. 
Primeiro, apenas poucos computadores de universidades, 
governos e empresas adotaram o TCP/IP, depois, centenas. 
E em um intervalo de 50 anos, bilhões de computadores. 
O TCP/IP é o protocolo que usamos na Internet hoje. 
Por fim, pessoas de todo do mundo passaram a poder enviar dados umas às outras, 
mas ainda havia um problema. 
A informação que enviavam era apenas texto. 
Não havia centralização e era bastante sem graça. 
Assim, na década de 70, 
um cientista da computação chamado Tim Berners-Lee inventou a World Wide Web. 
Essa invenção usava diversos protocolos para exibir informações em páginas da Web 
e se tornou a forma predominante de comunicação no acesso à Internet. 
Qualquer pessoa que tinha Internet na época podia acessar 
a fonte de informação da World Wide Web. 
Já se passaram 30 anos desde a criação da World Wide Web. 
Passamos de enviar mensagens de e-mail simples 
e ver páginas básicas para fazer videoconferências e ver notícias em tempo real. 
Comprar comida, livros e até carros em questão de segundos. 
Fazer um curso on-line como este não era possível até recentemente. 
A criação da Internet que conhecemos hoje foi uma combinação de conhecimento 
e engenharia de muitos cientistas brilhantes e organizações. 
Se quiser saber mais sobre a história da Internet, 
dê uma olhada na leitura complementar e no curso de redes deste programa. 
No próximo vídeo, vamos entender as limitações dos projetos originais 
da Internet e como essas limitações nos afetam hoje.

Limitações da internet
Falamos bastante de endereço IP 
neste curso, mas não vimos esse assunto a fundo mesmo. 
Na verdade, existem diversas versões de endereço IP. 
O protocolo atual, o protocolo da Internet versão 4, ou IPv4, 
é um endereço composto de 32 bits divididos em quatro grupos. 
Lembre-se: 42 bits são quatro bytes, e um byte pode armazenar 
até 256 valores, de 0 a 255. 
Portanto, um exemplo de endereço IPv4 seria 73.55.242.3. 
Apesar de parecer que são muitos endereços IPv4 possíveis, 
existem menos de 4,3 bilhões de endereços IPv4. 
Há muito mais de 4,3 bilhões de sites na Web hoje. 
Alguns endereços IPv4 são reservados para finalidades especiais. 
Portanto, o número de endereços IP utilizáveis é menor ainda. 
Para se conectar à Internet, o dispositivo 
tem que ter um endereço IP, 
mas existem mais dispositivos no mundo do que endereços IP. 
Então, de onde tiramos endereços IP? 
Os endereços IP conseguiram acompanhar o número de dispositivos do mundo 
graças ao IPv6 ou endereços IP versão 6. 
Os endereços IPv6 têm 128 bits, 
quatro vezes mais que o IPv4. 
Com isso, muito mais dispositivos podem ter endereços IP. 
A adoção dos endereços IPv6 tem sido gradual. 
Com o tempo, você verá cada vez mais endereços IPv6 por aí. 
Um exemplo de endereço IPv4 seria 172.14.24.1. 
Já um endereço IPv6 pode ser algo como isso na tela. 
Bem diferente, não? 
Tenho uma analogia para representar o tamanho da diferença entre IPv4 e IPv6. 
Com o IPv6, são 2 elevado a 128 endereços IP possíveis, 
2 elevado a 128 é um número absurdamente grande. 
Tão grande que os cientistas tiveram dificuldade em descrever com palavras seu tamanho. 
Bom, essa é a analogia. 
Imagine um grão de areia. 
Se você pegar um punhado, 
quantos grãos acha que você poderá segurar? 
Provavelmente muitos, mas não vai chegar nem perto do número de que estamos falando. 
Agora, pegue todos os grãos de areia do mundo, 
presumindo que haja cerca de 7,5 
vezes 10 elevado a 18 grãos de areia no mundo. 
Ainda seria menos que o número de endereços IPv6. 
Agora, vamos pegar toda a areia de várias Terras, 
agora estamos perto do número. 
É um número insanamente alto. 
Basta saber que não vamos ficar sem endereços IPv6 tão cedo. 
Outra solução que conseguimos usar 
é a NET, ou tradução de endereços de rede. 
Com ela, as organizações 
podem usar um endereço IP público e vários privados dentro da rede. 
A NET é como a recepcionista de uma empresa. 
Você sabe que número discar para contatar a empresa e, ao chegar na recepcionista, 
ela pode transferir sua ligação para um dos números privados da empresa. 
Agora, em vez de as empresas usarem centenas 
de endereços IP públicos, podem usar apenas um. 
Lembra dos roteadores de que falamos antes? 
Uma coisa que você pode ter que fazer quando for especialista 
de suporte de TI é configurar a NET em um roteador 
para facilitar a comunicação entre a rede da empresa e o mundo. 
Tivemos que lidar com muitas outras limitações. 
Você vai ver mais sobre eles no curso de networking. 
Agora, você já deve ter uma noção geral de por que o IPv4 
nos limita tanto hoje e como o IPv6 ajudou a resolver isso.

Internet das coisas


Você já deve ter ouvido falar de Internet das coisas, ou IoT. 
Este conceito é bastante novo, mas já tem grande impacto no futuro da computação. 
O conceito é bastante simples. 
Basicamente, cada vez mais dispositivos são 
conectados à Internet de uma maneira mais inteligente. 
Sabia que agora existem termostatos smart? 
Em vez de programá-los manualmente para quando estiver fora, 
eles entendem quando você sai e desligam o ar-condicionado para você. 
E não é só o seu termostato, 
muitas empresas estão produzindo aparelhos domésticos mais inteligentes. 
Existem geladeiras que identificam os alimentos que armazenam, 
torradeiras controladas pelo celular, 
luzes que mudam dependendo do seu humor 
e carros que dirigem sozinhos. 
O mundo está caminhando para a conexão 
de dispositivos manuais cada vez mais inteligentes à Internet. 
Essas decisões têm muitas implicações sociais, 
principalmente na área de segurança cibernética ou privacidade pessoal. 
Mas a IoT também tem um enorme potencial 
de transformar o mundo de formas que nunca vimos. 
No futuro, as pessoas podem não acreditar que tínhamos que fazer 
nosso próprio café ou dirigir até a padaria. 
Apesar de você talvez não ter tido a chance de trabalhar com um dispositivo IoT, 
deve saber que essa será uma parte considerável do futuro da computação. 
Se quiser mais sobre a IoT, acesse a leitura complementar.

Leitura complementar sobre a internet das coisas


https://www.wired.co.uk/article/internet-of-things-what-is-explained-iot
Redes Teste
1.Pergunta 1
Quais dos seguintes cabos são usados em redes? Marque todas as respostas possíveis.

Cabo de fibra ótica

CorretoNa mosca! O cabo ethernet e o de fibra ótica são usados em redes.

Ethernet

CorretoNa mosca! O cabo ethernet e o de fibra ótica são usados em redes.

Cabo auxiliar

Cabo HDMI

2.Pergunta 2
Quais dos dispositivos a seguir são usados em redes? Marque todas as respostas possíveis.

Roteadores

CorretoYes! Estes são todos os dispositivos físicos usados em redes.

TCP

Switches

CorretoYes! Estes são todos os dispositivos físicos usados em redes.

Hubs

CorretoYes! Estes são todos os dispositivos físicos usados em redes.

3.Pergunta 3
Como chamamos os dados divididos em bits e enviados por uma rede?

Memória

Binário

Pacotes

Páginas

CorretoMuito bem! Os dados são enviados por meio de pacotes pela rede.

4.Pergunta 4
Quais são algumas das formas de resolvermos a falta de endereços IPv4? Marque todas as respostas possíveis.
Sistemas autônomos

Usando endereços IPv6

CorretoMuito bem! Usando NAT e endereços IPv6, podemos resolver a escassez de endereços IPv4.

Network Address Translation (Tradução de endereço de rede)

CorretoMuito bem! Usando NAT e endereços IPv6, podemos resolver a escassez de endereços IPv4.

Border Gateway Protocol

5.Pergunta 5
Quais destes são endereços IPv4 válidos? Marque todas as respostas possíveis.

345.0.24.6

1.1.1.1

CorretoMuito bem! O endereço IPv4 é separado em 4 bytes e cada byte pode ter um valor de 0 a 255.

54.45.43.54

CorretoMuito bem! O endereço IPv4 é separado em 4 bytes e cada byte pode ter um valor de 0 a 255.

255.255.255.0

CorretoMuito bem! O endereço IPv4 é separado em 4 bytes e cada byte pode ter um valor de 0 a 255.

6.Pergunta 6
Você pode criar uma rede com dois computadores.

VERDADEIRO

FALSO

CorretoSim! Uma rede pode ser composta por dois ou mais computadores.

7.Pergunta 7
Os dispositivos de uma rede são identificados por qual das seguintes opções?

Cabo Ethernet

Endereço MAC e endereço IP

ISPs e endereços IP

Nome de usuário e endereços IP

Correto
Muito bem! O endereço MAC e o endereço IP são os identificadores exclusivos dos dispositivos de uma rede.

8.Pergunta 8
Qual protocolo de rede é usado para lidar com a entrega confiável de informações?

TCP

UDP

IP

ICMP

CorretoMuito bem! O TCP é usado para lidar com a entrega confiável de informações em uma rede.

9.Pergunta 9
Qual protocolo de rede é usado para rotear endereços IP?

TCP

UDP

IP

ICMP

CorretoVocê acertou! O IP é usado para rotear endereços IP em uma rede.

10.Pergunta 10
Qual protocolo nos permite usar um nome de domínio como google.com em vez de um endereço IP?

NAT

TCP/IP

DNS

ICMP

CorretoExcelente! O DNS nos permite usar nomes fáceis de lembrar, em vez de usar os endereços IP.

O que é software?
Videogames, reprodutores de mídia e navegadores de Internet são tipos diferentes de
software que têm funções completamente distintas. Imagine os aplicativos do seu celular e
notebook. Passamos muito tempo interagindo com esse tipo de software, mas podemos
não saber como eles funcionam ou são adicionados ao sistema. Nos últimos vídeos,
falamos sobre rede e Internet. Existem vários aplicativos por aí que precisam de Internet
para funcionar. Vamos pensar. Os aplicativos de rede social, aplicativos de mensagens e
outros funcionam com Internet. Essa integração com a Internet não é magicamente
adicionada ao seu aplicativo, faz parte do aplicativo exigir a Internet. Antes de vermos o
mundo dos softwares em detalhes, quero destacar alguns termos comuns aos softwares
que você pode ouvir. Codificação, script e programação podem parecer termos um pouco
confusos. Eles normalmente se referem à mesma coisa, mas cada um deles tem sua
particularidade. Codificar é basicamente traduzir de uma linguagem para outra. Codificar
pode ser do inglês para o espanhol, inglês para código morse ou até inglês para uma
linguagem de computador. Quando alguém cria um aplicativo, chamamos isso de codificar
um aplicativo. Scripting é codificar em uma linguagem de script. Vamos falar sobre
linguagens de script em uma próxima aula, mas os scripts executam uma tarefa de escopo
único ou limitado. Para criá-los, podemos usar algumas linguagens. Programar é codificar
em uma linguagem de programação. Linguagens de programação são linguagens especiais
que os desenvolvedores usam para escrever instruções que os computadores executam.
Aplicativos maiores, como seu navegador, editores de texto, e reprodutores de música
costumam ser escritos em linguagens de programação. Quando usamos o termo
"software", geralmente estamos falando de algo programado. Vamos usar bastante esses
termos daqui em diante, então, não se preocupe com os detalhes. Mas quem cria os
softwares e do que eles são feitos? Ótima pergunta. Quem entende uma linguagem de
programação ou script pode usá-la para escrever código. Exige uma demanda gigante por
esse conhecimento, e está cada vez mais fácil aprender a codificar. Se você vai trabalhar
com TI, é importante entender como os softwares funcionam e são instalados no sistema.
Você pode se deparar com erros de software aquelas falhas mais comuns, por isso precisa
entender como resolvê-los. No final deste módulo, você entenderá o que é software, como
ele funciona, e como instalar, remover e atualizar softwares, tudo isso nos sistemas
operacionais Linux e Windows.
Tipos de software
Quando você avalia conteúdo, cria uma obra de arte, ou projeta algo, seu trabalho é
protegido para uso e distribuição. É comum haver outras limitações, dependendo das leis
do seu país, mas, em geral, direito autoral se aplica a obras originais. Software codificado
também é protegido por direitos autorais. Os desenvolvedores de software podem escolher
o que fazer com seu software. Costuma-se deixar pessoas usarem softwares comerciais
pelo pagamento de uma licença. Já para softwares não comerciais, uma prática comum é
abrir seu código. Isso significa deixar outros desenvolvedores compartilhar, modificar e
distribuir o software de graça. Ponto. Alguns projetos de software incríveis foram
desenvolvidos mais cedo por causa dos códigos abertos. Um grande exemplo é o kernel
Linux, usado no Android OS e em computadores pessoais e empresariais. Milhões de
dispositivos estão usando Linux neste exato segundo. LibreOffice, GIMP e Firefox são outros
exemplos de software de código aberto. Projetos de código aberto costumam receber a
contribuição de desenvolvedores que trabalham de graça nas horas vagas. Esses enormes
projetos de desenvolvimento foram tocados essencialmente por uma comunidade de
voluntários. Não é incrível? No ambiente de TI, você tem que dar ênfase nos tipos de
software que usa. Alguns podem exigir o pagamento de várias licenças para usar, outros
podem ser gratuitos e de código aberto. É importante ler o contrato de licença de qualquer
software antes de instalar. Falamos sobre conceitos básicos dos softwares, mas agora
vamos focar nos dois tipos de software que você encontrará categorizados por função.
Software aplicativo é o software criado para atender a uma demanda específica, como um
editor de texto, um navegador ou um editor de imagens. Software de sistema é aquele
usado para manter nosso sistema principal em execução, como ferramentas e utilitários do
sistema. Existe também um tipo de software de sistema que ainda não estudamos: o
firmware. Firmware é um software armazenado permanentemente em um componente do
computador. Consegue lembrar de algum firmware que já abordamos? Se pensou no BIOS,
você acertou. O BIOS ajuda a inicializar o hardware do computador e a carregar o sistema
operacional. Por isso, é importante que esteja em um local permanente. É bom falarmos
das versões de software também. Elas são importantes porque informam que recursos
foram adicionados a uma iteração específica do software. Você vai encontrar muitas
versões de software ao trabalhar nessa área. É comum desenvolvedores usarem um padrão
diferente para distinguir uma versão. Mas, em geral, a maioria das versões segue uma
tendência de numeração sequencial. Você pode encontrar algo como 1.2.5 ou 1.3.4, qual
destes você acha que é a versão mais recente? É a 1.3.4, porque é maior que 1.2.5. Você
pode saber mais sobre versões de software na leitura complementar. Você terá que
trabalhar com todos os tipos de software. Felizmente, todos funcionam quase que da
mesma maneira. Depois de entender como um software funciona, você entenderá como
outros podem funcionar. É o que vamos ver nos próximos vídeos.
Leitura complementar sobre controle de versões de
software
https://en.wikipedia.org/wiki/Software_versioning

O conceito de simplificar um sistema complexo para facilitar o uso é conhecido como ____.

codificação

abstração

ofuscação

criptografia

Fórmulas de computação
Lembre-se de que na década de 1950, cientistas usavam cartões perfurados para armazenar programas. Esses
cartões perfurados representavam bits que a CPU leria para executar uma série de instruções de acordo com o
que era o programa. O código binário poderia ser assim, e as instruções seriam convertidas nisso. Pegue
alguns dados de entrada neste local da memória e usando eles, faça umas contas e coloque alguns dados de
saída nesse local da memória. Mas armazenar programas em cartões perfurados era demorado e tedioso. Os
programas tinham que ser mantidos em pilhas e pilhas de cartões perfurados. Os cientistas precisavam de uma
forma melhor de enviar instruções a uma máquina, mas como? Em determinado ponto, inventou-se uma
linguagem foi chamada Assembly, que permitia aos cientistas usar instruções legíveis por humanos e era
acoplada a código que as máquinas podiam entender. Em vez de gerar código binário, os cientistas passaram a
programar com instruções da máquina, funciona assim, obtém-se o número do registro um, o do registro dois,
adiciona-se o número dos registros um e dois e gera-se saída no registro quatro. Este exemplo insinua que
humanos podem ler isso, mas não se engane. Vamos ver o exemplo de uma fala simples, hello world, em
Assembly. Tem um tom bem robótico. Não me entenda mal, mas isso ainda é melhor que usar código binário.
Mas a linguagem Assembly só registra o esboço do código da máquina. Ele não permite que os programadores
usem palavras humanas para construir um programa. E um programa escrito para uma CPU específica só pode
ser executado nessa CPU ou nessa família de CPUs. Era preciso ter um programa que fosse executado em
muitos tipos de CPU. Aí que entram as linguagens de programação compiladas. Uma linguagem de
programação compilada usa instruções legíveis por humanos e as envia através de um compilador. O
compilador converte as instruções humanas em instruções de máquina. A almirante Grace Hopper inventou
isso em 1959 para facilitar a programação. Os compiladores são um componente-chave da programação e
ajudaram a consolidar o rumo que nos levou à computação moderna. Graças aos compiladores, agora
podemos usar isso, que será a mesma coisa que isso. Cientistas da computação desenvolveram centenas de
linguagens de programação nas últimas duas décadas para tentar resumir diversas instruções à CPU em
comandos mais simples. Com o tempo, surgiu outro tipo de linguagem, que era interpretada, e não compilada.
Linguagens interpretadas não são compiladas antes. Um arquivo que tem código escrito em uma dessas
linguagens é chamado de script. O script é executado por um interpretador, que entende e converte o código
em instruções à CPU na hora de executar. Mais à frente neste programa, você vai aprender a escrever código
usando uma linguagem de script. Como especialista em suporte de TI. os scripts podem ajudar porque
controlam a capacidade de um computador de executar tarefas para você, permitindo que você resolva um
problema uma vez e parta para o próximo. Linguagens de programação são usadas para criar programas que
executam uma ou várias tarefas. Há diversos tipos de programas e, na próxima aula, vamos falar sobre como
gerenciá-los.

Pergunta 1
Quais destes são de software aplicativos? Marque todas as respostas possíveis.

CPU
Memória RAM
Navegador Web
CorretoCorreto! Seu navegador da Web e seus clientes de e-mail são considerados software/aplicativos.
Cliente de e-mail
CorretoCorreto! Seu navegador da Web e seus clientes de e-mail são considerados software/aplicativos.

Pergunta 2
Quais destes é são software do sistema? Marque todas as respostas possíveis.

Editor de texto
CPU
Sistema operacional Windows
CorretoVocê acertou! O sistema operacional Windows e a BIOS são considerados software do sistema.
BIOS
CorretoVocê acertou! O sistema operacional Windows e a BIOS são considerados software do sistema.

Pergunta 3
Qual é a diferença entre uma linguagem interpretada e uma linguagem compilada? Marque todas as respostas
possíveis.

As linguagens interpretadas são fragmentadas em instruções para a máquina antecipadamente.


As linguagens compiladas são traduzidas em instruções para a máquina antecipadamente.
CorretoAs linguagens compiladas são traduzidas em instruções para a máquina antecipadamente.
As linguagens interpretadas não são fragmentadas em instruções para a máquina antecipadamente.
CorretoBoa! As linguagens interpretadas não são fragmentadas em instruções para a máquina antecipadamente, como
são as linguagens compiladas.
As linguagens compiladas não são traduzidas em instruções para a máquina antecipadamente.

Gerenciando softwares
Programas, softwares e aplicativos são sinônimos. 
Neste momento, vamos usar o termo software em todos os casos. 
Nós fizemos uma análise dos diferentes tipos de software. 
Existem tipos de software que realizam tarefas específicas, 
como os drivers, que nos permitem interagir com o hardware. 
Existem aplicativos que usamos tarefas cotidianas do trabalho. 
E existem os utilitários, como calculadora, configurações e outras ferramentas. 
Com as opções quase infinitas 
de software, como saber quais usar? 
Como lidamos com eles no ambiente de trabalho? e na vida pessoal? 
Os softwares estão sempre mudando. 
Desenvolvedores lançam atualizações, empresas de software mudam, recursos são adicionados 
e assim por diante. 
Essa mudança constante está totalmente fora do nosso controle 
e pode causar muitas dores de cabeça no mundo da TI. 
Digamos que a empresa que desenvolveu seu sistema de folha de pagamento 
aplica uma atualização que altera as configurações, 
ou pior, elimina totalmente a compatibilidade com sua própria empresa. 
Pode acontecer. 
Você deve sempre testar novos softwares antes de fazer sua empresa usá-los. 
Outro ponto preocupante são os softwares antigos. 
Ao executar um software antigo em sua máquina, você corre o risco de exposição a ataques 
de cibersegurança que aproveitam os bugs do software. 
Um bug é um erro no software que gera resultados inesperados. 
Vamos ver a segurança de computadores em detalhes em um próximo curso. 
Por enquanto, saiba que as atualizações de software normalmente contêm novidades de segurança críticas 
e novos recursos, além de ter maior compatibilidade com seu sistema.
Reproduza o vídeo começando em :1:49 e siga a transcrição1:49
Atualizar software constantemente é uma boa prática. 
Outro problema que dá dor de cabeça mundo da TI, em termos de software, 
é o gerenciamento de softwares. 
Se você configura um computador para alguém, o ideal é ter certeza de que a pessoa 
terá todas as ferramentas necessárias para conseguir trabalhar da melhor maneira.
Reproduza o vídeo começando em :2:5 e siga a transcrição2:05
Isso significa que você precisa instalar todos os softwares necessários para o trabalho.
Reproduza o vídeo começando em :2:10 e siga a transcrição2:10
Isso também indica que é uma boa ideia remover softwares desnecessários. 
Podemos não perceber se um software que instalamos é malicioso 
e se causa danos ao computador. 
É sempre bom checar se o software veio de uma fonte confiável 
antes da instalação. 
Uma prática comum do setor é não permitir 
que usuários instalem softwares sem aprovação do administrador.
Reproduza o vídeo começando em :2:33 e siga a transcrição2:33
Assim, os usuários não conseguem instalar software indesejado porque 
existe um bloqueio que exibe uma mensagem de erro 
indicando que é preciso ter as credenciais de acesso de um administrador para prosseguir. 
Mas não vamos colocar os carros à frente dos bois. Vamos ver os conceitos básicos 
do gerenciamento de software, como instalação atualização e remoção de software. 
Nos próximos vídeos, vamos ver como executar esses procedimentos em 
ambientes Windows e Linux. 
Preparar, apontar, vamos lá.

Instalando, atualizando e removendo softwares no


Windows
Prepare-se porque, neste vídeo, vamos instalar um programa chamado Git. 
O Git é um sistema de controle de versões que ajuda a monitorar as alterações feitas nos arquivos 
e pastas. 
Como alguns processadores de texto hoje têm um recurso de histórico de revisão, se você não 
gostar de algo que escreveu, basta voltar à versão anterior. 
Primeiro, vamos baixar o programa de instalação no site do Git. 
Vamos baixar o executável de 64 bits. 
Lembra que, em uma aula anterior, usamos uma arquitetura de CPU de 64 bits? 
Então, precisamos instalar aplicativos de 64 bits para melhorar a compatibilidade. 
Em seguida, você verá a extensão de arquivo ".exe". 
Esse formato é um pouco diferente das extensões de arquivo 
de texto ou imagem que vimos até agora. 
O "exe" é a extensão dos arquivos executáveis encontrada no Windows. 
Vamos ver mais sobre ela na segunda aula. 
Por enquanto, basta dar clique duplo nele 
para ver a mensagem perguntando se queremos instalar o arquivo.
Reproduza o vídeo começando em :1:29 e siga a transcrição1:29
E pronto. 
Já pode começar a usar.
Reproduza o vídeo começando em :1:33 e siga a transcrição1:33
Algumas instalações de programa podem exigir uma reinicialização. 
Faça isso, já que podem haver alguns arquivos ou processos do sistema 
que precisam da reinicialização para que o novo software funcione como deve.
Reproduza o vídeo começando em :1:45 e siga a transcrição1:45
Para verificar se você o Git está instalado, navegue até "Adicionar ou 
remover programas". 
Nessa seção, você verá quais aplicativos estão instalados na máquina, 
e lá está ele: Git versão 2.14.1. 
Digamos que você tenha uma versão anterior do Git instalada 
e queira atualizá-lo com a nova versão. 
Felizmente, o Windows facilita esse processo para o usuário. 
Ao instalá-lo da forma que fizemos, 
o Windows perguntará se queremos atualizar para a versão mais recente. 
Para remover o software do Windows, basta buscar a tela "Adicionar 
ou remover programas". 
Nela, selecione o aplicativo que quer remover 
para ver o botão "Desinstalar". 
Clique nele para executar a desinstalação do software.
Reproduza o vídeo começando em :2:30 e siga a transcrição2:30
Você terá que informar a senha de administrador. 
Existem proteções ativas para impedir que usuários não autorizados instalem 
ou desinstalem softwares. 
Vamos aprender mais sobre isso depois, por agora, como sou administrador, 
vou apenas digitar minha senha e desinstalar o software. 
Depois da desinstalação, reinicie seu computador para 
que a limpeza necessária seja feita e o software seja completamente removido.
Instalando, atualizando e removendo softwares no
Linux
Agora que você sabe como instalar, atualizar 
Para remover software do Windows, 
vamos fazer o mesmo no Linux. 
Vamos voltar à página de download do git. 
Na página "Linux", 
você verá muitas maneiras diferentes de instalar o git. 
Isso acontece porque cada distribuição do Linux usa um instalador de pacotes diferente. 
Já que estamos usando o Ubuntu, 
vamos usar o comando; "apt, install git". 
"Apt" é o comando que usamos 
no gerenciador de pacotes do Ubuntu, e com a opção de instalação vamos pode instalar algo. 
Vamos continuar e executar isso no terminal. 
Está acontecendo um erro de permissão negada. 
Como no Windows, ao instalar algo em uma máquina, 
precisamos informar ao computador que temos autorização para isso. 
Agora, podemos iniciar esse comando com outro comando do Linux. 
O "Sudo" que significa "superusuário atua". 
Ele nos pede uma senha. 
Vamos inseri-la. 
Muitos dados estão sendo gerados. 
O sistema está perguntando se queremos continuar instalando 
e, já que queremos, vou informar por que. 
Para atualizar um pacote, 
o procedimento é exatamente o mesmo e instala uma nova versão do software. 
Para remover um pacote, 
também podemos usar um comando bem parecido com o da instalação, 
só que, desta vez, queremos remover um pacote.
Reproduza o vídeo começando em :1:40 e siga a transcrição1:40
O sistema pergunta se queremos continuar com as alterações. 
Vamos informar por que e apertar "Enter". 
É isso aí. Agora você sabe instalar, atualizar 
e remover software no Linux e no Windows. Bom trabalho.
__________________________________________________________________________
Pergunta 1
Situação: você está trabalhando como técnico de suporte de informática e uma pessoa chega e diz que não está
conseguindo acessar sua conta pelo Internet banking. Qual seria a melhor coisa a dizer nessa situação?

Você poderia fornecer mais detalhes sobre o que você quer dizer com não estar conseguindo acessar o Internet
banking? Qual é a parte específica que não está funcionando no processo?
Reinicie seu computador.
Pode ser um problema com a Internet. Verifique se você está conectado à rede.
Vamos tentar acessar sua conta em meu computador.
CorretoIsso mesmo! Lembre-se: se houver problemas, não tire conclusões precipitadas. Faça perguntas e procure
saber mais sobre o que está acontecendo. A pessoa pode estar utilizando um nome de usuário incorreto, a conexão à
rede pode estar ruim, o servidor do banco pode estar com problemas. Também há outras possibilidades.
Pergunta 2
Situação: você está trabalhando como técnico de suporte de informática e um computador não está se conectando à
rede. Você já fez todas as perguntas necessárias ao usuário e já está entrando na fase de depuração de problemas. Qual
seria a melhor coisa a se fazer primeiro?
Fazer mais perguntas
Formatar a máquina.
Reiniciar o computador. Pode ser um problema estranho na Internet.
Isole o problema na rede ou no computador.
CorretoIsso mesmo! Você já reuniu informações suficientes sobre o que está acontecendo. Agora é hora de começar a
descobrir qual é o problema. O problema pode estar no computador ou na rede. Para descobrir, você pode Åverificar se
uma outra pessoa está conseguindo acessar a rede.
Pergunta 3
Situação: você está trabalhando como técnico de suporte de informática e uma pessoa chega e diz que não está
conseguindo fazer o login no computador. Qual seria a melhor coisa a fazer, nessa situação?

Reiniciar o computador. Pode ter algo acontecendo com o sistema de login.


Checar o dispositivo de rede ao qual ela está conectada.
Verificar se a pessoa está com o caps lock ativado.
"Quando foi a última vez que você conseguiu fazer o login? Alguma coisa foi alterada desde então?"
CorretoIsso mesmo! Faça uma sequência de perguntas para tentar descobrir o que aconteceu antes do problema
aparecer.
Pergunta 4
Situação: você acabou de instalar um programa em um computador, e ele não está rodando direito. Você já fez as
perguntas pertinentes, mas não consegue associar o problema a uma causa específica. Qual seria a melhor coisa a se
fazer agora?

Executar as ferramentas de diagnóstico. Isso levaria aproximadamente uma hora.


Reiniciar o computador. Pode ser que a máquina tenha que ser reiniciada após a instalação. Esse processo leva uns
dois minutos.
Reinstalar o programa. Isso levaria uns quinze minutos.
Formatar o computador. Isso levaria algumas horas.
CorretoIsso mesmo! Algumas instalações requerem inicializações para serem concluídas. Nesse caso, a reinicialização
é também a medida mais rápida de depuração de problemas.

Pergunta 1
Resposta livre: Qual é a diferença entre um bom e um ótimo atendimento ao cliente? Qual é a parte mais importante do
atendimento ao cliente para você?

A diferença entre um bom e um ótimo atendimento ao cliente é que um bom atendimento satisfaz as
expectativas do cliente, enquanto um ótimo atendimento ultrapassa essas expectativas. Isso pode incluir
soluções rápidas para problemas, soluções personalizadas para necessidades específicas dos clientes, e uma
comunicação clara e eficaz. Para mim, a parte mais importante do atendimento ao cliente é a empatia e a
capacidade de se colocar no lugar do cliente. É importante entender as necessidades e preocupações do
cliente para poder fornecer soluções eficazes e satisfatórias. Além disso, a capacidade de ouvir ativamente e
responder com clareza e transparência também é crucial para um ótimo atendimento ao cliente.
CorretoObrigado! Um ótimo atendimento ao cliente é algo único para cada indivíduo. Uma boa regra é tratar os outros
como você gostaria de ser tratado.

Pergunta 2Você está prestando suporte em um desktop e a política da empresa permite apenas suporte em
equipamentos da empresa. Chega um usuário:
Técnico: Olá, como posso ajudá-lo?

Usuário: Meu computador está muito lento, mal dá para usar. Você pode me ajudar a descobrir o que há de errado?

Técnico: Parece que este é seu computador pessoal. Você está falando sobre o seu computador de trabalho?
Usuário: Hum, não. É para este mesmo que eu preciso de suporte. Por saber que você sabe muito de computadores,
pensei que você poderia ajudar. Minha filha precisa fazer um dever de casa para amanhã, mas o computador está lento
demais.

O que você faria?

Esquecer essa política chata e ajudá-lo! A coitada da filha dele precisa terminar o dever!
Dizer-lhe que você não pode ajudá-lo e sugerir que ele vá a uma assistência técnica para obter assistência.
Explique por que você não pode solucionar o problema de acordo com a política da empresa. Mas dê algumas
dicas sobre quais problemas comuns poderiam estar reduzindo o desempenho do computador dele e como ele poderia
resolvê-los.
Educadamente, diga-lhe que isso vai contra a política da empresa e você não pode ajudá-lo.
CorretoVocê acertou! Essa resposta expõe as expectativas e, em seguida, apresenta algumas sugestões úteis. Nesse
caso, você está mostrando ao usuário que você se importa com o problema, ainda que não possa ajudá-lo.

Pergunta 3
Situação: Você trabalha em uma empresa que exige verificação visual para redefinir senhas. A verificação não precisa
ser feita por meio da conta da sua empresa. No entanto, você deve ver a pessoa "presencialmente" (não por meio de
foto) para que você possa ver a correspondência com a foto dela antes de redefinir a conta.

Cenário: Ligação telefônica

Anastasia: Obrigado pela ligação. Meu nome é Anastasia. Como posso ajudar?

Ling: Oi, Anastasia. Aqui é Ling. Preciso redefinir a senha da minha conta.

Anastasia: Olá, Ling. Será ótimo ajudar você, mas primeiro preciso verificar sua identidade. Você pode fazer uma
chamada de vídeo comigo pelo Skype?

Ling: Não estou conseguindo entrar na minha conta de trabalho. É por isso que estou ligando.

O que você faria nesta situação? Marque todas as respostas possíveis.

Dizer-lhe gentilmente que ele terá que esperar até o dia seguinte para se encontrar presencialmente com alguém.
Perguntar ao usuário se ele tem uma conta pessoal para usar no Skype.
CorretoMuito bem! Você acabou de usar a criatividade para descobrir o que o usuário pode fazer para conseguir fazer
essa chamada. Você poderia sugerir que ele vá a uma lan-house ou biblioteca com wi-fi também.
Sugerir que o usuário faça uma videochamada com você pelo telefone.
CorretoMuito bem! Você acabou de usar a criatividade para descobrir o que o usuário pode fazer para conseguir fazer
essa chamada. Você poderia sugerir que ele vá a uma lan-house ou biblioteca com wi-fi também.
Oferecer-se para configurar uma videochamada pelo Skype, FaceTime ou Hangouts.
CorretoMuito bem! Você acabou de usar a criatividade para descobrir o que o usuário pode fazer para conseguir fazer
essa chamada. Você poderia sugerir que ele vá a uma lan-house ou biblioteca com wi-fi também.

Pergunta 4
O usuário precisa redefinir a senha dele. O especialista em suporte de TI está obtendo as informações necessárias
enquanto o usuário começa a fazer várias perguntas: por que a senha precisa ter uma letra maiúscula e um símbolo?
Por que não posso anotá-la? Por que ela tem que mudar tantas vezes? Não é uma perda de tempo? Como você
responderia ao usuário?

Parar o que você está fazendo e explicar ao usuário que as senhas devem ter números e símbolos para fins de
segurança, e que isso é mais importante que a produtividade.
Informar ao usuário que você está trabalhando no problema dele e que não se esquecerá de responder a todas as
perguntas dele quando terminar.
Pedir gentilmente ao usuário para pare de fazer perguntas, já que você está tentando resolver o problema.
Ignorar o usuário e continuar trabalhando na redefinição da senha para que você não perca o fio da meada.
CorretoMuito bem! Você está reconhecendo as perguntas do usuário, mas definindo um plano claro do que deseja
fazer. Isso permite que eles saibam o que esperar e ajuda você a manter o controle da conversa.
Pergunta 5
Chega um usuário para obter suporte de TI. Quem está no local é uma especialista em suporte de TI (do sexo feminino).
O usuário é homem. Há também um especialista em suporte de TI do sexo masculino na sala. O usuário explica à
especialista em suporte de TI que a colega dele está de licença e que ele precisa acessar os arquivos dela. A técnica
tenta explicar a política, o que não permite esse tipo de acesso, dadas as questões de segurança. O usuário exige falar
com o especialista em suporte de TI homem para chegar a uma solução. Se você fosse o técnico do sexo masculino
nessa situação, o que você faria?

Depois que o usuário sair, verificar como a técnica está se sentido e dar dicas sobre como lidar com situações
semelhantes no futuro.
Dizer ao usuário que não há diferença de conhecimento e entendimento entre você e sua colega de trabalho.
Ignorá-lo.
Entrar na conversa e responder à pergunta do usuário.
CorretoMuito bem! Você não deve confrontar o usuário, algo que pode ser muito difícil. Em vez disso, você deve
reforçar e apoiar o trabalho da técnica como especialista em suporte de TI. Nem sempre cabe à pessoa menosprezada a
responsabilidade de "se defender".

Sistemas de tíquete e documentação do trabalho


Já trabalhou tanto em algo que teve muitas etapas 
e levou muito tempo, só para ter que fazer tudo de novo três meses depois? 
E esqueceu completamente o que fez? 
Bom, isso acontece o tempo todo no mundo da TI. 
É por isso que documentar seu trabalho é importante. 
Pode parecer que a documentação suga seu tempo, mas na verdade é o contrário. 
Existem duas maneiras principais de documentar informações na área de TI. 
A primeira é com sistema de bugs ou tíquetes. 
Os tíquetes são uma forma comum de documentar um problema. 
Os bugs são problemas no sistema que não foram causados por uma fonte externa. 
Imagine se toda vez que algo parasse de funcionar, você recebesse um e-mail. 
Seria difícil controlar tudo e impossível encaminhar os problemas. 
O setor de TI utiliza sistemas que controlam isso para você. 
Alguns exemplos são o Bugzilla, o JIRA e o Redmine. 
Essas são soluções completas que ajudam você a monitorar os problemas, 
se comunicar com os usuários e dar atualizações. 
Uma ótima forma de usar o sistema de 
documentação é detalhar no tíquete o problema, os procedimentos e passos 
adotados para tentar resolver e a solução obtida. 
Isso é importante por dois motivos. 
O primeiro é que mantém o usuário informado. 
O segundo é que ajuda a auditar seus procedimentos caso você precise 
ver o que fez. 
Você também pode anotar procedimentos e políticas para criar uma trilha de documentação. 
Você tem muitas opções para anotar e armazenar 
sua documentação. 
Pode manter as políticas e procedimentos em uma página 
de documento na web com armazenamento on-line e em muitos outros meios. 
O importante é garantir que ela possa ser acessada por todos na empresa. 
Se você tiver uma tarefa mensal recorrente, como atualizar software antigo das máquinas, 
anote todas as etapas e volte a elas quando precisar. 
A documentação não é algo que se faz e abandona depois. 
Sistemas e processos estão mudando constantemente, 
e sua documentação deve refletir isso. 
É importante atualizar a documentação. 
Para você não acabar lendo algo obsoleto. 
Uma última coisa que quero destacar sobre como escrever documentação 
é que você não precisa de criatividade na escrita. 
Você não está escrevendo uma história curta. 
Está escrevendo um documento técnico. 
Você tem que ser o mais conciso possível. 
Para que, quando alguém ler seu documento, 
consiga descobrir com facilidade o que precisa fazer.

Você também pode gostar