Você está na página 1de 27

Treinamento Básico

Operacional
Um pouco de história...
A palavra “computador” vem do verbo “computar” que, por sua
vez, significa “calcular”. Sendo assim, podemos pensar que a
criação de computadores começa na idade antiga, já que a
relação de contar já intrigava os homens. Dessa forma, uma
das primeiras máquinas de computar foi o “ábaco”,
instrumento mecânico de origem chinesa criado no século V
a.C.
O primeiro computador eletromecânico foi construído por Konrad Zuse
(1910–1995). Em 1936, esse engenheiro alemão construiu, a partir de
relês que executavam os cálculos e dados lidos em fitas perfuradas, o Z1.
Zuse tentou vender o computador ao governo alemão, que desprezou a
oferta, já que não poderia auxiliar no esforço de guerra. Os projetos de
Zuse ficariam parados durante a guerra, dando a chance aos americanos
de desenvolver seus computadores.
Foi na Segunda Guerra Mundial que realmente nasceram os
computadores atuais. A Marinha dos Estados Unidos, em conjunto com
a Universidade de Harvard, desenvolveu o computador Harvard Mark I,
projetado pelo professor Howard Aiken, com base no calculador
analítico de Babbage. O Mark I ocupava 120 m³ aproximadamente,
conseguindo multiplicar dois números de dez dígitos em três segundos.

Simultaneamente, e em segredo, o Exército dos Estados Unidos


desenvolvia um projeto semelhante, chefiado pelos engenheiros J.
Presper Eckert e John Mauchly, cujo resultado foi o primeiro computador
a válvulas, o Eletronic Numeric Integrator And Calculator (ENIAC),
capaz de fazer quinhentas multiplicações por segundo. Tendo sido
projetado para calcular trajetórias balísticas, o ENIAC foi mantido em
segredo pelo governo americano até o final da guerra, quando foi
anunciado ao mundo.
Primeira Geração (1951-1959)

Os computadores de primeira geração funcionavam por meio de


circuitos e válvulas eletrônicas. Possuíam o uso restrito, além de
serem imensos e consumirem muita energia. Um exemplo é o
ENIAC já citado acima, que consumia cerca de 200 quilowatts e
possuía 19.000 válvulas.
Segunda Geração (1959-1965)

Ainda com dimensões muito grandes, os computadores da segunda


geração funcionavam por meio de transistores, os quais substituíram as
válvulas que eram maiores e mais lentas. Nesse período já começam a se
espalhar o uso comercial.
Terceira Geração (1965-1975)

Os computadores da terceira geração funcionavam por circuitos


integrados. Esses substituíram os transistores e já apresentavam uma
dimensão menor e maior capacidade de processamento. Foi nesse
período que os chips foram criados e a utilização de computadores
pessoais começou.
Quarta Geração (1975-até os dias atuais)

Com o desenvolvimento da tecnologia da informação, os


computadores diminuem de tamanho, aumentam a velocidade e
capacidade de processamento de dados. São incluídos os
microprocessadores com gasto cada vez menor de energia.
Nesse período, mais precisamente a partir da década de 90, há
uma grande expansão dos computadores pessoais.

Além disso, surgem os softwares integrados e a partir da virada


do milênio, começam a surgir os computadores de mão. Ou
seja, os smartphones, iPod, iPad e tablets, que incluem conexão
móvel com navegação na web.
Sistema computacional
Hardware
Unidade Central de Processamento - CPU
A unidade central de processamento ou CPU (Central Processing Unit), também conhecida como processador, é a parte
de um sistema computacional, que realiza as instruções de um programa de computador, para executar a aritmética
básica, lógica, e a entrada e saída de dados. O papel da CPU pode ser comparado ao papel de um cérebro no
funcionamento de um computador. Isto é, realiza operações lógicas, cálculos e processamento de dados. O termo foi
cunhado no início de 1960 e seu uso permanece até os dias atuais pois, ainda que sua forma, desenho e implementação
tenham mudado drasticamente, seu funcionamento fundamental permanece o mesmo.

Muitos erram ao confundir a CPU com o que na verdade é o gabinete do equipamento. O gabinete é apenas a estrutura
de sustentação e proteção dos componentes internos da máquina - basicamente uma carcaça. O processador, por outro
lado, é uma das peças internas.

As características da CPU influenciam diretamente na velocidade com que seus programas vão rodar na máquina.
Existem vários tipos de processadores no mercado: com um ou múltiplos núcleos, e compatíveis com diferentes placas-
mãe. As principais fabricantes são a Intel e a AMD. A CPU é ligada à placa mãe por meio de um soquete, um
dispositivo que permite ao processador receber energia para comandar as atividades do computador. Também existem
vários tipos de soquetes no mercado e sua escolha limita a lista de CPUs compatíveis com a máquina.
Memória PRINCIPAL

RAM: Random Access Memory


ROM: Read Only Memory
BIOS: Basic Input Output System.
Memória RAM

 A Memória de acesso randômico (português brasileiro) ou Memória de acesso aleatório (português


europeu) (do inglês Random Access Memory, frequentemente abreviado para RAM) é um tipo de
memória que permite a leitura e a escrita, utilizada como memória primária em sistemas eletrônicos
digitais.

 A RAM é um componente essencial não apenas nos computadores pessoais, mas em qualquer tipo de
computador, pois é onde basicamente ficam armazenados os programas básicos operacionais. Por
mais que exista espaço de armazenamento disponível, na forma de um HDD ou memória flash, é
sempre necessária uma certa quantidade de RAM.

 O termo acesso aleatório identifica a capacidade de acesso a qualquer posição e em qualquer


momento, por oposição ao acesso sequencial, imposto por alguns dispositivos de armazenamento,
como fitas magnéticas. O nome não é verdadeiramente apropriado, já que outros tipos de memória
(como a ROM) também permitem o acesso aleatório a seu conteúdo. O nome mais apropriado seria:
Memória de Leitura e Escrita, que está expressa na programação computacional.
Memória ROM

 A memória somente de leitura ou ROM (acrônimo em inglês de read-only memory) é


um tipo de memória que permite apenas a leitura, ou seja, as suas informações são
gravadas pelo fabricante uma única vez e após isso não podem ser alteradas ou
apagadas, somente acessadas. São memórias cujo conteúdo é gravado
permanentemente.

 Uma memória somente de leitura propriamente dita vem com seu conteúdo gravado
durante a fabricação. Atualmente, o termo Memória ROM é usado informalmente para
indicar uma gama de tipos de memória que são usadas apenas para a leitura na
operação principal de dispositivos eletrônicos digitais, mas possivelmente podem ser
escritas por meio de mecanismos especiais. Entre esses tipos encontramos as PROM,
as EPROM, as EEPROM e as memórias flash. Ainda de forma mais ampla, e de certa
forma imprópria, dispositivos de memória terciária, como CD-ROMs, DVD-ROMs,
etc., também são algumas vezes citados como memória ROM.
Memória secundária
Memória secundária refere-se a dispositivos de armazenamento, Tais como Discos rígidos e
unidades de estado sólido. Também pode se referir a mídia de armazenamento removível, como USB
Pen drives, CDse DVDs.

Ao contrário memória primária, a memória secundária não é acessada diretamente pelo CPU. Em
vez de, dados acessado da memória secundária é carregado primeiro no RAM e então é enviado para
o processador. A RAM desempenha um papel intermediário importante, pois fornece velocidades de
acesso a dados muito mais rápidas que a memória secundária. Ao carregar o software programas e
arquivos na memória primária, os computadores podem processar dados muito mais rapidamente.

Embora a memória secundária seja muito mais lenta que a memória primária, ela normalmente
oferece uma capacidade de armazenamento muito maior. Por exemplo, um computador pode ter um
terabyte disco rígido, mas apenas o 16 gigabytes de RAM. Isso significa que o computador possui
aproximadamente 64 vezes mais memória secundária que a memória primária. Além disso, a
memória secundária não é volátil, o que significa que retém seus dados com ou sem energia elétrica.
A RAM, por outro lado, é apagada quando um computador é desligado ou reiniciado. Portanto, a
memória secundária é usada para armazenar "dados permanentes", como o sistema operativo,
aplicações e arquivos de usuário.
Periféricos de entrada
Periféricos de saída
Unidades de medida
 Um byte unidade de medida em informática, frequentemente confundido com bit, é um dos tipos de dados integrais em computação. É usado
com frequência para especificar o tamanho ou quantidade da memória ou da capacidade de armazenamento de um computador,
independentemente do tipo de dados armazenados. A codificação padronizada de byte foi definida como sendo de 8 bits. O byte de 8 bits é, por
vezes, também chamado de octeto, nomeadamente no contexto de redes de computadores e telecomunicações. A uma metade de um byte, dá-se
o nome de nibble ou semioctecto.

 Para os computadores, representar 256 números binários é suficiente. Por isso, os bytes possuem 8 bits. Basta fazer os cálculos. Como um bit
representa dois valores (1 ou 0) e um byte representa 8 bits, basta fazer 2 (do bit) elevado a 8 (do byte) que é igual a 256.

 Note que um byte nada tem de especial, é apenas um número binário de oito algarismos. Sua importância na informática deriva apenas do fato
do código ASCII haver adotado números de oito bits, além de razões meramente construtivas ou operacionais. Por exemplo: os códigos
enviados a impressoras para controlar a impressão têm oito bits, os valores trocados pelos modems entre computadores também, assim como
diversas outras operações elementares de intercâmbio de informações.

 As memórias costumam ser organizadas de tal forma que as operações de leitura e escrita são feitas com quantidades de um byte ou de um
múltiplo de bytes (oito, dezesseis, trinta e dois, sessenta e quatro ou cento e vinte e oito bits – o que corresponde a um, dois, quatro, oito e
dezesseis bytes, respectivamente).

 Então exprimem-se as quantidades em prefixo binário (e não no Sistema Internacional de Unidades), que é uma forma de quantificação
utilizada em Informática onde se torna mais útil utilizar potências de dois do que potências de dez. Têm o mesmo nome das unidades do SI,
embora sejam múltiplos de 1024 (210) no lugar de 1000 (10³).
Unidades de medida
Software
Software é um conjunto de instruções que devem ser seguidas e executadas por um mecanismo,
seja ele um computador ou um aparato eletromecânico. É o termo genérico usado para
descrever programas, apps, scripts, macros e instruções de código embarcado diretamente
(firmware), de modo a ditar o que uma máquina deve fazer.

Todo programa em seu computador, celular, tablet, smart TV, console de videogame, é um
software, seja ele um editor de textos, um navegador, um editor de áudio ou vídeo, um jogo, um
app de streaming e por aí vai. Um software pode se apresentar de várias formas, desde um app
no celular a um conjunto de cartões perfurados, usados em computadores eletromecânicos.
Sistema operacional
São os programas encarregados de fazer a comunicação entre o computador, que só entende
linguagem de máquina, e o usuário, sendo a base em que outros softwares, como os de aplicação e os
de programação irão rodar. Ou seja, são plataformas para rodar outros softwares. Os sistemas
operacionais como Windows, macOS, Linux, iOS, Android, por exemplo, são softwares de sistema.
Em alguns casos, softwares de aplicação podem assumir o papel de sistemas operacionais, como o
Chrome OS, onde o navegador é um software de sistema e de aplicação. Firmwares, softwares de
automação industrial e motores gráficos de jogos também são exemplos de softwares de sistema.
Aplicativos
Os softwares de aplicação, por sua vez, são os
programas que você conhece: players de vídeo e
música, jogos, editores de textos, calculadoras,
navegadores, apps de redes sociais e etc. Um
software de aplicação tem como função executar
tarefas das mais diversas, que podem ser de uso
individual ou até mesmo global, o que pede que
eles sejam mais robustos e seguros.
Utilitários
Software utilitário são programas que complementam outros programas, ou seja, acrescenta
tarefas em um software já existente melhorando seus recursos. Compactadores de arquivos ou
um antivírus.

Utilizado para suprir deficiências dos sistemas operacionais, melhorando os recursos dele. Eles
auxiliam nas diversas tarefas ligadas ao gerenciamento, monitoramento ou otimização e
manutenção do computador ou rede de computadores.

Ele também pode facilitar a vida do usuário como chat, reproduzir vídeos, visualizar imagens
dentre outras utilidades.

Exemplos de softwares utilitários:

Antivírus: Avast, Norton, McAfee e kaspersky

Manutenção: desfragmentador de disco e Scandisk do Windows e Defrag (desfragmentador)

Otimizador: Pc Booster e CCleaner (limpeza)


História da internet
A história da internet começa no ambiente da Guerra Fria (1945-1991) onde as duas
super potências envolvidas, Estados Unidos e União Soviética, estavam divididos nos
blocos socialista e capitalista e disputavam poderes e hegemonias.
Arpanet e a origem da internet
Com o intuito de facilitar a troca de informações, porque temiam ataques dos soviéticos, o
Departamento de Defesa dos Estados Unidos (ARPA - Advanced Research Projects
Agency) criou um sistema de compartilhamento de informações entre pessoas distantes
geograficamente, a fim de facilitar as estratégias de guerra. Nesse momento, surge o
protótipo da primeira rede de internet, a Arpanet (Advanced Research Projects Agency
Network). Assim, no dia 29 de outubro de 1969 foi estabelecida a primeira conexão entre
a Universidade da Califórnia e o Instituto de Pesquisa de Stanford. Foi um momento
histórico, uma vez que o primeiro e-mail foi enviado.
Já na década de 90, o cientista,
físico e professor britânico Tim
Berners-Lee desenvolveu um
navegador ou browser, a World
Wide Web (www), a Rede Mundial
de Computadores - Internet. A
partir disso, a década de 90 ficou
conhecida como o "boom da
internet", pois foi quando ela se
popularizou pelo mundo, com o
surgimento de novos browsers ou
navegadores — Internet Explorer,
Netscape, Mozilla Firefox, Google
Chrome, Opera, Lynx — e o
aumento do número de usuários,
navegadores da internet.

Você também pode gostar