Você está na página 1de 27

Treinamento Básico

Operacional
Um pouco de história...
A palavra “computador” vem do verbo “computar” que, por
sua vez, significa “calcular”. Sendo assim, podemos pensar
que a criação de computadores começa na idade antiga, já
que a relação de contar já intrigava os homens. Dessa forma,
uma das primeiras máquinas de computar foi o “ábaco”,
instrumento mecânico de origem chinesa criado no século V
a.C.
O primeiro computador eletromecânico foi construído por Konrad Zuse
(1910–1995). Em 1936, esse engenheiro alemão construiu, a partir de
relês que executavam os cálculos e dados lidos em fitas perfuradas, o Z1.
Zuse tentou vender o computador ao governo alemão, que desprezou a
oferta, já que não poderia auxiliar no esforço de guerra. Os projetos de
Zuse ficariam parados durante a guerra, dando a chance aos americanos
de desenvolver seus computadores.
Foi na Segunda Guerra Mundial que realmente nasceram os
computadores atuais. A Marinha dos Estados Unidos, em conjunto com
a Universidade de Harvard, desenvolveu o computador Harvard Mark I,
projetado pelo professor Howard Aiken, com base no calculador
analítico de Babbage. O Mark I ocupava 120 m³ aproximadamente,
conseguindo multiplicar dois números de dez dígitos em três segundos.

Simultaneamente, e em segredo, o Exército dos Estados Unidos


desenvolvia um projeto semelhante, chefiado pelos engenheiros J.
Presper Eckert e John Mauchly, cujo resultado foi o primeiro computador
a válvulas, o Eletronic Numeric Integrator And Calculator (ENIAC),
capaz de fazer quinhentas multiplicações por segundo. Tendo sido
projetado para calcular trajetórias balísticas, o ENIAC foi mantido em
segredo pelo governo americano até o final da guerra, quando foi
anunciado ao mundo.
Primeira Geração (1951-1959)

Os computadores de primeira geração funcionavam por meio de


circuitos e válvulas eletrônicas. Possuíam o uso restrito, além de
serem imensos e consumirem muita energia. Um exemplo é o
ENIAC já citado acima, que consumia cerca de 200 quilowatts e
possuía 19.000 válvulas.
Segunda Geração (1959-1965)

Ainda com dimensões muito grandes, os computadores da segunda


geração funcionavam por meio de transistores, os quais substituíram as
válvulas que eram maiores e mais lentas. Nesse período já começam a se
espalhar o uso comercial.
Terceira Geração (1965-1975)

Os computadores da terceira geração funcionavam por circuitos


integrados. Esses substituíram os transistores e já apresentavam uma
dimensão menor e maior capacidade de processamento. Foi nesse
período que os chips foram criados e a utilização de computadores
pessoais começou.
Quarta Geração (1975-até os dias atuais)

Com o desenvolvimento da tecnologia da informação, os


computadores diminuem de tamanho, aumentam a velocidade e
capacidade de processamento de dados. São incluídos os
microprocessadores com gasto cada vez menor de energia.
Nesse período, mais precisamente a partir da década de 90, há
uma grande expansão dos computadores pessoais.
Além disso, surgem os softwares integrados e a partir da virada
do milênio, começam a surgir os computadores de mão. Ou
seja, os smartphones, iPod, iPad e tablets, que incluem conexão
móvel com navegação na web.
Sistema computacional
Hardware
Unidade Central de Processamento - CPU

A unidade central de processamento ou CPU (Central Processing Unit), também conhecida como
processador, é a parte de um sistema computacional, que realiza as instruções de um programa
de computador, para executar a aritmética básica, lógica, e a entrada e saída de dados. O
papel da CPU pode ser comparado ao papel de um cérebro no funcionamento de um
computador. Isto é, realiza operações lógicas, cálculos e processamento de dados. O termo foi
cunhado no início de 1960 e seu uso permanece até os dias atuais pois, ainda que sua forma,
desenho e implementação tenham mudado drasticamente, seu funcionamento fundamental
permanece o mesmo.

Muitos erram ao confundir a CPU com o que na verdade é o gabinete do equipamento. O


gabinete é apenas a estrutura de sustentação e proteção dos componentes internos da máquina
- basicamente uma carcaça. O processador, por outro lado, é uma das peças internas.

As características da CPU influenciam diretamente na velocidade com que seus programas vão
rodar na máquina. Existem vários tipos de processadores no mercado: com um ou múltiplos
núcleos, e compatíveis com diferentes placas-mãe. As principais fabricantes são a Intel e a AMD.
A CPU é ligada à placa mãe por meio de um soquete, um dispositivo que permite ao processador
receber energia para comandar as atividades do computador. Também existem vários tipos de
soquetes no mercado e sua escolha limita a lista de CPUs compatíveis com a máquina.
Memória PRINCIPAL

RAM: Random Access Memory


ROM: Read Only Memory
BIOS: Basic Input Output System.
Memória RAM

 A Memória de acesso randômico (português brasileiro) ou Memória de acesso


aleatório (português europeu) (do inglês Random Access Memory, frequentemente
abreviado para RAM) é um tipo de memória que permite a leitura e a escrita,
utilizada como memória primária em sistemas eletrônicos digitais.

 A RAM é um componente essencial não apenas nos computadores pessoais, mas


em qualquer tipo de computador, pois é onde basicamente ficam armazenados os
programas básicos operacionais. Por mais que exista espaço de armazenamento
disponível, na forma de um HDD ou memória flash, é sempre necessária uma certa
quantidade de RAM.

 O termo acesso aleatório identifica a capacidade de acesso a qualquer posição e


em qualquer momento, por oposição ao acesso sequencial, imposto por alguns
dispositivos de armazenamento, como fitas magnéticas. O nome não é
verdadeiramente apropriado, já que outros tipos de memória (como a ROM)
também permitem o acesso aleatório a seu conteúdo. O nome mais apropriado
seria: Memória de Leitura e Escrita, que está expressa na programação
computacional.
Memória ROM

 A memória somente de leitura ou ROM (acrônimo em inglês de read-only


memory) é um tipo de memória que permite apenas a leitura, ou seja, as suas
informações são gravadas pelo fabricante uma única vez e após isso não
podem ser alteradas ou apagadas, somente acessadas. São memórias cujo
conteúdo é gravado permanentemente.

 Uma memória somente de leitura propriamente dita vem com seu conteúdo
gravado durante a fabricação. Atualmente, o termo Memória ROM é usado
informalmente para indicar uma gama de tipos de memória que são usadas
apenas para a leitura na operação principal de dispositivos eletrônicos digitais,
mas possivelmente podem ser escritas por meio de mecanismos especiais. Entre
esses tipos encontramos as PROM, as EPROM, as EEPROM e as memórias flash.
Ainda de forma mais ampla, e de certa forma imprópria, dispositivos de
memória terciária, como CD-ROMs, DVD-ROMs, etc., também são algumas
vezes citados como memória ROM.
Memória secundária
Memória secundária refere-se a dispositivos de armazenamento, Tais como Discos
rígidos e unidades de estado sólido. Também pode se referir a mídia de
armazenamento removível, como USB Pen drives, CDse DVDs.

Ao contrário memória primária, a memória secundária não é acessada


diretamente pelo CPU. Em vez de, dados acessado da memória secundária é
carregado primeiro no RAM e então é enviado para o processador. A RAM
desempenha um papel intermediário importante, pois fornece velocidades de
acesso a dados muito mais rápidas que a memória secundária. Ao carregar o
software programas e arquivos na memória primária, os computadores podem
processar dados muito mais rapidamente.

Embora a memória secundária seja muito mais lenta que a memória primária, ela
normalmente oferece uma capacidade de armazenamento muito maior. Por
exemplo, um computador pode ter um terabyte disco rígido, mas apenas o 16
gigabytes de RAM. Isso significa que o computador possui aproximadamente 64
vezes mais memória secundária que a memória primária. Além disso, a memória
secundária não é volátil, o que significa que retém seus dados com ou sem
energia elétrica. A RAM, por outro lado, é apagada quando um computador é
desligado ou reiniciado. Portanto, a memória secundária é usada para armazenar
"dados permanentes", como o sistema operativo, aplicações e arquivos de
Periféricos de entrada
Periféricos de saída
Unidades de medida
 Um byte unidade de medida em informática, frequentemente confundido com bit, é um dos tipos de dados integrais em
computação. É usado com frequência para especificar o tamanho ou quantidade da memória ou da capacidade de
armazenamento de um computador, independentemente do tipo de dados armazenados. A codificação padronizada de
byte foi definida como sendo de 8 bits. O byte de 8 bits é, por vezes, também chamado de octeto, nomeadamente no
contexto de redes de computadores e telecomunicações. A uma metade de um byte, dá-se o nome de nibble ou
semioctecto.

 Para os computadores, representar 256 números binários é suficiente. Por isso, os bytes possuem 8 bits. Basta fazer os
cálculos. Como um bit representa dois valores (1 ou 0) e um byte representa 8 bits, basta fazer 2 (do bit) elevado a 8 (do
byte) que é igual a 256.

 Note que um byte nada tem de especial, é apenas um número binário de oito algarismos. Sua importância na informática
deriva apenas do fato do código ASCII haver adotado números de oito bits, além de razões meramente construtivas ou
operacionais. Por exemplo: os códigos enviados a impressoras para controlar a impressão têm oito bits, os valores trocados
pelos modems entre computadores também, assim como diversas outras operações elementares de intercâmbio de
informações.

 As memórias costumam ser organizadas de tal forma que as operações de leitura e escrita são feitas com quantidades de
um byte ou de um múltiplo de bytes (oito, dezesseis, trinta e dois, sessenta e quatro ou cento e vinte e oito bits – o que
corresponde a um, dois, quatro, oito e dezesseis bytes, respectivamente).

 Então exprimem-se as quantidades em prefixo binário (e não no Sistema Internacional de Unidades), que é uma forma de
quantificação utilizada em Informática onde se torna mais útil utilizar potências de dois do que potências de dez. Têm o
mesmo nome das unidades do SI, embora sejam múltiplos de 1024 (210) no lugar de 1000 (10³).
Unidades de medida
Software
Software é um conjunto de instruções que devem ser seguidas e executadas
por um mecanismo, seja ele um computador ou um aparato eletromecânico.
É o termo genérico usado para descrever programas, apps, scripts, macros e
instruções de código embarcado diretamente (firmware), de modo a ditar o
que uma máquina deve fazer.

Todo programa em seu computador, celular, tablet, smart TV, console de


videogame, é um software, seja ele um editor de textos, um navegador, um
editor de áudio ou vídeo, um jogo, um app de streaming e por aí vai. Um
software pode se apresentar de várias formas, desde um app no celular a um
conjunto de cartões perfurados, usados em computadores eletromecânicos.
Sistema operacional
São os programas encarregados de fazer a comunicação entre o computador, que
só entende linguagem de máquina, e o usuário, sendo a base em que outros
softwares, como os de aplicação e os de programação irão rodar. Ou seja, são
plataformas para rodar outros softwares. Os sistemas operacionais como Windows,
macOS, Linux, iOS, Android, por exemplo, são softwares de sistema. Em alguns casos,
softwares de aplicação podem assumir o papel de sistemas operacionais, como o
Chrome OS, onde o navegador é um software de sistema e de aplicação.
Firmwares, softwares de automação industrial e motores gráficos de jogos também
são exemplos de softwares de sistema.
Aplicativos
Os softwares de aplicação, por sua vez,
são os programas que você conhece:
players de vídeo e música, jogos,
editores de textos, calculadoras,
navegadores, apps de redes sociais e
etc. Um software de aplicação tem
como função executar tarefas das mais
diversas, que podem ser de uso
individual ou até mesmo global, o que
pede que eles sejam mais robustos e
seguros.
Utilitários
Software utilitário são programas que complementam outros programas, ou
seja, acrescenta tarefas em um software já existente melhorando seus
recursos. Compactadores de arquivos ou um antivírus.

Utilizado para suprir deficiências dos sistemas operacionais, melhorando os


recursos dele. Eles auxiliam nas diversas tarefas ligadas ao gerenciamento,
monitoramento ou otimização e manutenção do computador ou rede de
computadores.

Ele também pode facilitar a vida do usuário como chat, reproduzir vídeos,
visualizar imagens dentre outras utilidades.

Exemplos de softwares utilitários:

Antivírus: Avast, Norton, McAfee e kaspersky

Manutenção: desfragmentador de disco e Scandisk do Windows e Defrag


(desfragmentador)

Otimizador: Pc Booster e CCleaner (limpeza)


História da internet
A história da internet começa no ambiente da Guerra Fria (1945-1991) onde as
duas super potências envolvidas, Estados Unidos e União Soviética, estavam
divididos nos blocos socialista e capitalista e disputavam poderes e hegemonias.
Arpanet e a origem da internet
Com o intuito de facilitar a troca de informações, porque temiam ataques dos
soviéticos, o Departamento de Defesa dos Estados Unidos (ARPA - Advanced
Research Projects Agency) criou um sistema de compartilhamento de informações
entre pessoas distantes geograficamente, a fim de facilitar as estratégias de
guerra. Nesse momento, surge o protótipo da primeira rede de internet, a Arpanet
(Advanced Research Projects Agency Network). Assim, no dia 29 de outubro de
1969 foi estabelecida a primeira conexão entre a Universidade da Califórnia e o
Instituto de Pesquisa de Stanford. Foi um momento histórico, uma vez que o
primeiro e-mail foi enviado.
Já na década de 90, o cientista,
físico e professor britânico Tim
Berners-Lee desenvolveu um
navegador ou browser, a World
Wide Web (www), a Rede Mundial
de Computadores - Internet. A
partir disso, a década de 90 ficou
conhecida como o "boom da
internet", pois foi quando ela se
popularizou pelo mundo, com o
surgimento de novos browsers ou
navegadores — Internet Explorer,
Netscape, Mozilla Firefox, Google
Chrome, Opera, Lynx — e o
aumento do número de usuários,
navegadores da internet.

Você também pode gostar