Você está na página 1de 14

ÍNDICE

PÁGINAS

Introdução………………………………………………………………………………2

OBJECTIVOS GERAIS ................................................................................................ 2


OBJECTIVOS ESPECIFICOS ..................................................................................... 2
METODOLOGIA........................................................................................................... 2
Ciência da Computação ................................................................................................. 3
História da Computação ................................................................................................ 3
Teoria da Informação ..................................................................................................... 4
Ciência do Computador ................................................................................................. 5
Computador .................................................................................................................... 5
Noções de Hardware....................................................................................................... 5
Formas de representação de dados ............................................................................... 5
Estrutura esquemática de um computador .................................................................. 7
Noções de Software ......................................................................................................... 8
Evolução do computador ............................................................................................... 9
O Início da Era da Computação .................................................................................. 10
Gerações de Computadores ......................................................................................... 11
Conclusão ...................................................................................................................... 13
Referências Bibliográficas ........................................................................................... 14

Hélio da Conceição Página 1


Introdução

Neste trabalho irá ser apresentado a evolução do computador como também sua história,
desde a primeira geração de computadores e os avanços conquistados ao longo dos
anos. Também é intenção do presente estudo procurar compreender e estabelecer as
directrizes para uma disciplina de História da Computação, mediante a selecção das
ideias, teorias e conceitos que ajudaram os homens em sua busca da automatização dos
processos aritméticos e que conduziram à tecnologia dos computadores. Nesse trabalho
se resume em definir pontos fundamentais da área de informática. Eles Permitirão, ao
longo do tempo, que as disciplinas específicas sejam mais suaves. Assim, sua dedicação
ao estudo e a realização das actividades propostas que é extremamente importante.

OBJECTIVOS GERAIS

Compreender os conceitos fundamentais da ciência da computação e da construção de


um computador. Distinguir Hardware e Software, observando suas interligações.

OBJECTIVOS ESPECIFICOS

Procurar compreender e estabelecer as directrizes para uma disciplina de História da


Computação, mediante a selecção das ideias, teorias e conceitos que ajudaram os
homens em sua busca da automatização dos processos aritméticos e que conduziram à
tecnologia dos computadores.

METODOLOGIA

Estudos científicos e investigação gradual dos factos aqui estabelecidos, e uma breve
análise crítica de dados encontrados nos manuais citados como referência bibliográfica.

Hélio da Conceição Página 2


Ciência da Computação

Ciência da Computação: processamento de dados, arquitectura de máquinas, Engª.


Software, programação.

A computação pode ser definida como a busca de uma solução para um problema a
partir de entradas e tem seus resultados depois de trabalhada através de um algoritmo. É
com isto que lida a teoria da computação, subcampo da ciência da computação e da
matemática. Durante milhares de anos, a computação foi executada com caneta e papel,
ou com giz e ardósia, ou mentalmente, por vezes com o auxílio de tabelas ou utensílios
artesanais. A partir da segunda metade do século XX, com o advento dos computadores
electrónicos, a Computação passou a ter uma presença cada vez mais marcante na
sociedade, influenciando a vida diária de parte da população mundial. A capacidade do
ser humano em calcular quantidades nos mais variados modos foi um dos factores que
possibilitaram o desenvolvimento da matemática e da lógica. Nos primórdios da
matemática e da álgebra, utilizavam-se os dedos das mãos para efectuar cálculos.

História da Computação

A capacidade do ser humano em calcular quantidades nos mais variados modos foi um
dos factores que possibilitaram o desenvolvimento da matemática e da lógica. Nos
primórdios da matemática e da álgebra, utilizavam-se os dedos das mãos para efectuar
cálculos. A mais antiga ferramenta conhecida para uso em computação foi o ábaco, e foi
inventado na Babilónia por volta de 2400 a.C. O seu estilo original de uso, era desenhar
linhas na areia com rochas.

O ábaco dos romanos consistia de bolinhas de mármore que deslizavam numa placa de
bronze cheia de sulcos. Também surgiram alguns termos matemáticos: em latim "Calx"
significa mármore, assim "Cálculos" era uma bolinha do ábaco, e fazer cálculos
aritméticos era "Calculare". No século V a.C., na antiga Índia, o gramático Pānini
formulou a gramática de Sânscrito usando 3959 regras conhecidas como Ashtadhyāyi,
de forma bastante sistemática e técnica.

A primeira calculadora capaz de realizar as operações básicas de soma e subtracção foi


inventada em 1672 pelo filósofo, físico e matemático francês Blaise Pascal.

Hélio da Conceição Página 3


Pascal, que aos 18 anos trabalhava com seu pai em um escritório de colecta de
impostos na cidade de Rouen, desenvolveu a máquina para auxiliar o seu trabalho de
contabilidade.

A calculadora usava engrenagens que a faziam funcionar de maneira similar a um


odómetro. Pascal recebeu uma patente do rei da França para que lançasse sua máquina
no comércio. A comercialização de suas calculadoras não foi satisfatória devido a seu
funcionamento pouco confiável, apesar de Pascal ter construído cerca de 50 versões. A
máquina Pascal foi criada com objectivo de ajudar seu pai a computar os impostos em
Rouen, França. O projecto de Pascal foi bastante aprimorado pelo matemático alemão
Gottfried Wilhelm Leibniz (1646-1726), que também inventou o cálculo, o qual sonhou
que, um dia no futuro, todo o raciocínio pudesse ser substituído pelo girar de uma
simples alavanca.

Em 1671, o filósofo e matemático alemão de Leipzig, Gottfried Wilhelm Leibniz


introduziu o conceito de realizar multiplicações e divisões através de adições e
subtracções sucessivas. Em 1694, a máquina foi construída, no entanto, sua operação
apresentava muita dificuldade e sujeita a erros. Em 1820, o francês natural de Paris,
Charles Xavier Thomas, conhecido como Thomas de Colmar, projectou e construiu uma
máquina capaz de efectuar as 4 operações aritméticas básicas: a Arithmomet. Esta foi a
primeira calculadora realmente comercializada com sucesso. Ela fazia multiplicações
com o mesmo princípio da calculadora de Leibnitz e efectuava as divisões com a
assistência do usuário. Todas essas máquinas, porém, estavam longe de ser considerado
um computador, pois não eram programáveis. Isto quer dizer que a entrada era feita
apenas de números, mas não de instruções a respeito do que fazer com os números.

Teoria da Informação

Até a década de 1930, engenheiros electricistas podiam construir circuitos electrónicos


para resolver problemas lógicos e matemáticos, mas a maioria o fazia sem qualquer
processo, de forma particular, sem rigor teórico para tal. Isso mudou com a tese de
mestrado de Claude E. Shannon de 1937, A Symbolic Analysis of Relay and Switching
Circuits. Enquanto tomava aulas de Filosofia, Shannon foi exposto ao trabalho de
George Boole, e percebeu que tal conceito poderia ser aplicado em conjuntos
electromecânicos para resolver problemas de lógica.

Hélio da Conceição Página 4


Tal ideia, que utiliza propriedades de circuitos electrónicos para a lógica, é o conceito
básico de todos os computadores digitais. Shannon desenvolveu a teoria da informação
no artigo de 1948 A Mathematical Theory of Communication, cujo conteúdo serve
como fundamento para áreas de estudo como compressão de dados e criptografia.

Ciência do Computador

Computador

É uma máquina electrónica de processamentos de dados programável, com grande


capacidade de armazenamento de dados associado a altíssimas velocidades de
processamento. Contudo, esta definição nos indica que o computador não é capaz de
criar informações a partir do nada. Ele apenas faz aquilo que instruímos a fazer, ou seja,
ele tem que receber informações e só então produzir um resultado.

O computador tem múltiplas finalidades e funções: pode ser utilizado para fazer
cálculos, para escrever textos, para armazenar e organizar os dados cadastrais dos
clientes de uma loja, etc. Para operar uma máquina com essa característica, não bastam
alguns botões. É preciso utilizar um programa, que permita ao usuário da máquina
especificar o que ele deseja. Distinguem-se então dois conceitos importantes:

Hardware: parte física de um sistema computacional, conjunto de componentes


electrónicos, eléctricos, mecânicos, como placas, circuitos, fios, etc.

Software: parte lógica de um sistema computacional, conjunto de procedimentos,


programas, instruções, que levam o computador a realizar uma tarefa.

Noções de Hardware

O computador é uma máquina multifuncional: pode ser utilizado para gerar textos, tratar
imagens, executar cálculos, etc. De forma geral, pode-se dizer que o computador
processa dados ou informações, que podem representar números, textos, imagens, etc.

Formas de representação de dados

Um primeiro problema que aparece é a escolha da melhor forma de representar os dados


dentro do computador.

Hélio da Conceição Página 5


1. Sistema decimal: 10 símbolos (algarismos 0 a 9): é a forma usual que os humanos
utilizam para representar dados (embora também haja outras: a dúzia, os 60
segundos para formar um minuto, etc.) A grandeza física habitualmente utilizada é
uma tensão ou uma corrente eléctrica.
2. Sistema binário: 2 símbolos (por exemplo, 0 e 1). É o sistema mais seguro
possível, pois há apenas dois níveis (0 ou 1, ligado ou desligado, etc.). Daqui deriva
o conceito de bit (binay digit): menor unidade de informação possível (pode assumir
os valores 0 ou 1).
3. Conversão de sistemas binários – decimal
a) Binário para decimal

A notação posicional utilizada na construção de qualquer número significa que o valor


do número é dado pela soma dos produtos de cada algarismo pela base elevada a um
número inteiro que indica sua posição, a partir de zero.

b) Decimal para binário

Para passar da base decimal para a binária, divide-se o número por 2, em seguida
divide-se o resultado por 2 e assim sucessivamente, até que o resultado seja 1. Então
escreve-se a sequência formada pelo último resultado e os restos das divisões, do último
para o primeiro.

4. Sistema hexadecimal

O sistema hexadecimal proporciona um modo mais fácil de visualizar e manipular um


número dado na base binária. Para isso, separa-se o número binário em conjuntos de
quatro bits cada um, e em seguida substitui-se cada conjunto de 4 bits pelo
correspondente valor em hexadecimal.

5. Álgebra Booleana

Foi desenvolvida por George Boole, em 1854 e define operações para variáveis binárias,
isto é, variáveis que só podem assumir dois valores. Tem grande importância na
computação, por fornecer as ferramentas para manipular variáveis binárias.
As variáveis assumem valores V (verdadeiro) ou F (falso). As operações básicas são
denominadas AND, OR e NOT, e correspondem a operações lógicas que fazemos no
dia a dia.

Hélio da Conceição Página 6


Estrutura esquemática de um computador

Do mesmo modo como foram exemplificadas as construções de circuitos para comparar


bytes e para somar conjuntos de bits, pode-se, com grandes agrupamentos de blocos
básicos, construir todos os elementos da estrutura de um computador.

CPU – central processing unit – unidade central de processamento – unidade


responsável pela execução dos programas e pelo comportamento das outras unidades no
sistema.

Unidade de Controle – parte da CPU que busca na memória a próxima instrução e a


descodifica para ser executada. Dependendo do tipo de instrução, pode transferir o
controle para a Unidade Lógica e Aritmética. Também controla o envio de dados para
componentes externos à CPU.

Unidade Lógica e Aritmética - parte da CPU que efectua operações aritméticas (soma,
subtracção, etc.) e lógicas (verifica se dois números são iguais ou não, verifica se duas
afirmações são verdadeiras simultaneamente, etc.).

Memória ROM – ROM (read only memory) – memória que contém informações que
não podem ser alteradas; contém programas internos que indicam o que o computador
deve fazer ao ser ligado, ou como efectuar operações básicas com outras memórias e
periféricos mais comuns. Não é volátil: as informações se mantêm quando o
computador é desligado.

Memória RAM ou Memória Principal – memória que guarda temporariamente os


programas e os dados que estão sendo usados (RAM – random access memory). É
volátil, guardando os programas e dados apenas enquanto o computador está ligado.

Registadores – memórias de alta velocidade e pouca capacidade de armazenamento;


indicam áreas especiais da memória onde residem programas e dados; guarda
informações sobre o estado actual do sistema.

Memória Cache – memória rápida que guarda dados recentemente processados; antes
de procurar um dado na RAM, o dado é procurado na Cache, cujo tempo de acesso é
menor.

Hélio da Conceição Página 7


Memória Secundária – memória não volátil para armazenamento a longo prazo, como
disquete, disco rígido, pen-drive. Têm grande capacidade de armazenamento e o acesso
a elas é mais lento que aos outros tipos de memória.

Periféricos de Entrada e Saída – dispositivos que permitem a entrada e saída de dados


no computador, como por exemplo: teclado, mouse, monitor de vídeo, leitora de
disquetes, impressora, leitora de CD’s, entradas USB, etc.

Barramentos – vias de tráfego de informações entre componentes. Sua largura


(quantidade de bits que pode transmitir simultaneamente) condiciona sua velocidade de
operação.

Clock – relógio, circuito oscilador que sincroniza o funcionamento dos outros


componentes do computador.

Noções de Software

Pode-se dividir os programas de computação em três tipos básicos: aplicativos,


utilitários e básicos

a) Aplicativos: programas voltados param uma tarefa desejada directamente pelo


usuário, como por exemplo editores de texto (Word), planilhas (Excel),
gerenciadores de bancos de dados, jogos, etc...
b) Utilitários: programas de apoio que facilitam a tarefa do usuário, como por
exemplo antivírus, compactadores de arquivos, etc...
c) Softwares básicos: programas que permitem o correto funcionamento da
máquina, como por exemplo os sistemas operacionais, sistemas tradutores de
linguagem, etc..
1. Sistemas Operacionais

Um sistema operacional é um programa que gerência e aloca recursos de hardware e


software. Provê, por exemplo, leitura de dados pelo teclado, visualização de
informações no vídeo, gerenciamento de programas pela CPU, gerenciamento das
memórias, etc. Exemplos de sistemas operacionais: Windows2000, Windows XP,
Linux, Unix, MS-DOS, etc. Parte do sistema operacional fica na ROM, gravado em
hardware (BIOS – Basic Input Output System) e parte fica no HD.

Hélio da Conceição Página 8


Quando o computador é ligado, a BIOS assume o controle e depois o passa para o
sistema em disco.

2. Linguagens de Programação

São programas que permitem construir outros programas para a resolução de problemas
(ou seja, permitem a construção de aplicativos, utilitários e até de sistemas
operacionais). As linguagens podem ser divididas em dois grandes grupos:

a) Linguagem de baixo nível: é aquela que está mais próxima à máquina, ou seja,
seus comandos são parecidos com as instruções do microprocessador. Têm maior
velocidade de execução e os programas gerados por ela são mais compactos
(ocupam menos memória). Em compensação, exige maior nível técnico do
programador, sendo maior o tempo empregado no desenvolvimento de um
programa. Distingue-se “linguagem de máquina” como o conjunto de instruções que
podem ser interpretados e executados directamente pela CPU de um dado
computador, e “linguagem Assembly” como a representação da linguagem de
máquina através de códigos mnemónicos. Ambas são características de cada tipo de
processador.
b) Linguagem de alto nível: é aquela que independe do conjunto de instruções da
linguagem de máquina do computador. Está mais próxima do ser humano (o ideal
seria a linguagem natural: português, inglês, etc..). Cada comando de uma
linguagem de alto nível equivale a várias instruções da linguagem de máquina. Isso
facilita a tarefa de programação, mas exige uma etapa intermediária entre a
linguagem de alto nível e a de baixo nível, que pode ser a compilação ou a
interpretação. Exemplos de linguagem de alto nível: Pascal, C, Java, Lisp, etc..
c) A compilação é o processo de tradução de um programa escrito em linguagem de
alto nível para uma linguagem de máquina. Uma vez convertido para linguagem de
máquina, o programa pode ser executado independentemente do compilador e do
programa original.

Evolução do computador

A história do computador, ao contrário do que muitos podem imaginar, tem seu início
há muito tempo atrás, desde quando o homem descobriu que somente com os dedos, ou
com pedras e gravetos, não dava mais para fazer cálculos.

Hélio da Conceição Página 9


Então foi criado, há aproximadamente 4.000 a.C., um aparelho muito simples formado
por uma placa de argila onde se escreviam algarismos que auxiliavam nos cálculos. Esse
aparelho era chamado de ÁBACO - palavra de origem Fenícia. Cerca de 200 a.C., o
Ábaco era constituído por uma moldura rectangular de madeira com varetas paralelas e
pedras deslizantes.

Várias tentativas foram feitas para ajudar o homem a automatizar tarefas repetitivas. O
Ábaco, instrumento para cálculos matemáticos usados pelos chineses desde cerca de
1000 a.C. e difundido para outros povos, é o parente mais distante do computador.

A primeira calculadora que se tem notícias é o ábaco, de origem chinesa, do século V


a.C. (antes de Cristo) capaz de efectuar operações algébricas elementares.

O computador foi inventado pelo homem devido à necessidade de facilitar os cálculos


como também seu quotidiano, limitando os erros e economizando o seu tempo. Por
volta de 1822, um cientista chamado Charles Babbage desenvolveu uma máquina que
era capaz de calcular funções de diversas naturezas (trigonometria, logaritmos) e
executar as quatro operações, armazenar dados em uma memória (de até 1.000 números
de 50 dígitos) e imprimir resultados. Esse projecto chamava-se Máquina de Diferenças.
Porém só pode ser concluída após sua morte, tornando-se base para a estrutura dos
computadores atuais, fazendo com que Charles Babbage fosse considerado o Pai do
Computador. Inicialmente, com o intuito de facilitar o seu trabalho, o homem criou o
Ábaco, um calculador decimal operado manualmente, há milhares de anos no oriente
médio e que ainda é muito utilizado em países no oriente, como o Japão.

Depois, no ano de 1642, um francês de 18 anos chamado Blaise Pascal inventou a


primeira máquina de somar chamada Pascalina, a qual realizava operações aritméticas,
sendo assim a precursora das calculadoras mecânicas.

O Início da Era da Computação

Já no ano de 1890, época do censo dos EUA, Hermann Hollerith percebeu que só
conseguiria terminar de apurar os dados do censo quando já seria o tempo de se efetuar
novo censo (1900). Então aperfeiçoou os cartões perfurados (aqueles utilizados por
Jacquard) e inventou máquinas para manipulá-los, conseguindo com isso obter os
resultados em tempo recorde, isto é, 3 anos depois.

Hélio da Conceição Página 10


Em 1930, os cientístas começaram a progredir nas invenções de máquinas complexas,
sendo que o Analisador Diferencial de Vannevar Bush anuncia a moderna era do
computador. Em 1936, Allan Turing publica um artigo sobre "Numeros Computáveis"
e Claude Shannon demonstra numa tese a conexão entre lógica simbólica e circuítos
elétricos. Em 1937, George Stibitz constrói em sua mesa de cozinha um "Somador
Binário". Com a chegada da Segunda Guerra Mundial houve a necessidade de se
projetar máquinas capazes de executar cálculos balísticos com rapidez e precisão para
serem utilizadas na indústria bélica.

Gerações de Computadores

1ª GERAÇÃO (1940 - 1952): Os primeiros computadores eram constituídos de


válvulas electrónicas. Elas eram grandes, caras, lentas e queimavam com grande
facilidade. O computador tinha apenas uso científico e estava instalado nos grandes
centros de pesquisa. Isto caracterizou a Primeira Geração de Computadores. Estas
válvulas eram ligadas por Kms de fios ligados manualmente. Isto explica as enormes
dimensões físicas dos computadores. Durante a 1ª Geração a programação era feita
directamente em linguagem de máquina que além de difícil era demorado. As operações
de cálculos eram realizadas em milissegundos. Realizando 39.000 adições/segundos.
Era constituída por todos os computadores construídos a base de válvulas a vácuo, e que
eram aplicados em campos científicos e militares. A única forma de armazenar dados
era através de cartões perfurados.

2ª GERAÇÃO (1952 - 1964): Esta Geração foi originada pela revolução dos
Transitores os quais substituíram as volumosas válvulas. Houve uma enorme
diminuição em cabos e fios, tendo em vista que cada transitor substituía dezenas de
válvulas. Desta maneira os computadores tornaram-se consideravelmente menores e
devido a isso, muito mais velozes. O computador começa a ser utilizado nas grandes
empresas. Tanto a válvula quanto o transistor realizava um processamento de cada vez.
Com o desenvolvimento das técnicas de integração, surgiram os Circuitos Integrados,
onde numa pequena cápsula continha, várias dezenas, centenas ou milhares de
transístores, ocupando uma área menor que uma unha, dando o nome de
microprocessador (processador miniatura). A linguagem de programação foi
simplificada e já se podia programar através de mnemónicos (comandos abreviados).
Esta linguagem denomina-se ASSEMBLER.

Hélio da Conceição Página 11


As operações de cálculos eram realizadas em milionésimos de segundos. Realizando
204.000 adições/segundos. Além do surgimento dos núcleos de ferrite, fitas e tambores
magnéticos passam a ser usados como memória.

3ª GERAÇÃO (1964 - 1971): A 3ª Geração surgiu com a utilização dos Circuitos


Integrados – SLT (Solid Logic Technolo-gy) uma técnica de micro circuitos. Nesta
geração os computadores podiam realizar vários processamentos simultâneos. As
técnicas de integração evoluíram de SSI (integração em pequena escala) para MSI
(integração em média escala), LSI (integração em grande escala) e VLSI (integração em
muito grande escala). Esta classificação é baseada na quantidade de componentes que o
integrado contém. A programação dos computadores desta geração foi facilitada pelo
aparecimento de linguagens orientadas para o problema específico. As linguagens são
de natureza universal e assemelham-se cada vez mais a linguagem do homem. As
operações de cálculos eram realizadas em bilionésimos de segundos. Realizando
1.280.000 adições/segundos.

4ª GERAÇÃO (1971 - 1980): Tem como marco inicial o surgimento do


microprocessador, a redução no tamanho dos computadores foi muito grande. Surgem
muitas linguagens de alto nível e nasce à tele – informática, transmissão de dados entre
computadores através de rede. Depois de 1970, as evoluções tecnológicas se deram
principalmente na miniaturização dos componentes internos dos computadores e os
avanços ficaram relacionados com a ESCALA DE INTEGRAÇÃO dos circuitos
integrados, ou seja, em quantos circuitos se pode colocar em um único chip. Busca-se
processadores mais rápidos e miniaturização de componentes.

5ª GERAÇÃO (1980/Actualmente): Desde o início da era dos microcomputadores, o


avanço tem sido constante. O computador que se fabrica hoje, dentro de alguns meses já
está obsoleto. Actualmente o que vem surgindo são inúmeras renovações com o
objectivo de evoluir os sistemas.

Hélio da Conceição Página 12


Conclusão

Voltando a algumas das primeiras observações feitas no capítulo introdutório, foi dito
que a exposição histórica não é apenas a narrativa de acontecimentos, cronológica e
tematicamente ordenados. A tarefa do historiador não se conclui com a obtenção de
dados fidedignos, depurados e exactos, bem como o estabelecimento de séries desses
fatos de maneira coerente e significativa. São somente pontos de partida para se inquirir
e perguntar sobre o próprio homem, o verdadeiro protagonista da História. Esse “saber”
histórico produz assim um enriquecimento da experiência humana, permite enfrentar o
desafio dos novos problemas com melhores recursos. Há mais possibilidades de
crescimento e criação de coisas novas quando se possui uma herança. A criatividade não
se faz sobre o nada. Ao jovem que o procurou dizendo que queria fazer versos livres,
Manuel Bandeira recomendou que estudasse a fundo poesia clássica, metrificada: e que
só então estaria apto a fazer versos livres. A criatividade é antes extrapolar e reorganizar
dados já incorporados, numa configuração nova. Mas, para extrapolar ou reorganizar
dados, é preciso, antes de mais nada, tê-los. Ao lado disso, é uma aspiração constante de
qualquer cultura entender o momento presente, formar uma imagem coerente,
seleccionando os fatos do passado que afectaram a evolução do ser humano, que
permitam construir uma explicação.

A Computação atravessa um tempo de expansão em várias direcções, tornando-se uma


tarefa necessária guardar seu património, discernindo as realidades e conceitos mais
importantes. Tudo isso é importante para o ensino, pois a Computação não surgiu do
nada: há uma história por trás de cada conceito. Cada conceito tem o seu lugar, a sua
importância e a sua história que é necessário ser ensinada. Este trabalho sobre História
da Computação, um entre outros que estão surgindo e alguns que já existem, faz uma
retrospectiva enfatizando as ideias, os paradigmas, pretendendo apenas ser uma
pontualizarão, visando uma futura expansão, sobre alguns aspectos abstractos do
desenvolvimento dos computadores. Ele e sua futura expansão são apenas um começo,
porque a área sobre a qual se falou contínua em constante evolução e mudança. O
campo de estudo ainda tem uma história muito recente e por demais volátil, não se
podendo chegar a algo definitivo.

Hélio da Conceição Página 13


Referências Bibliográficas

Kuck, D. J. - Computers and Computations - Volume I. USA, John Wiley & Sons,
1978.

RAMALHO, José António. Introdução à Informática: teoria e prática. São Paulo:


Futura, 2003

NORTON, Peter. Introdução à Informática. São Paulo: Makron Books, 1996

Informática: Conceitos Básicos Fernando de Castro Velloso Editora: Campus ISBN,


2004.

Informática: Conceitos e Aplicações Marcelo Marcula Pio Armando Benini Filho


Editora: Érica ISBN, 2005.

Introdução à Ciência da Computação Ricardo Daniel Fedeli Enrico Giulio Franco


Polloni Fernando Eduardo Peres Editora: Thomson,2003.

Estudo Dirigido De Informática Básica, André Luiz N. G. Manzano E Maria Izabel


N. G. Manzano Editora: ÉRICA ISBN: Edição: 1.

5. Introdução À Informática Autor: Peter Norton Editora: MAKRON BOOKS ISBN:


Edição: 1.

A APRENDIZAGEM DA MATEMÁTICA EM AMBIENTES


INFORMATIZADOS Maria Alice Gravina e Lucila Maria Santarosa - IV Congresso
RIBIE, Brasília 1998.

Hélio da Conceição Página 14

Você também pode gostar