Você está na página 1de 58

A História do Computador e alguns Matemáticos que contribuíram para seu

desenvolvimento
 Kleber Kilhian   1.5.10   5 comentários

Este post foi uma pesquisa que fiz no início de minha graduação. Está um pouco desatualizada,
devido ao crescimento exponencial das novas tecnologias, principalmente nos últimos anos. No
entanto, decidi publicá-la, pois pode ajudar de alguma forma algumas pessoas.

Computador é uma máquina capaz de variados tipos de tratamento automático de informações


ou processamento de dados. Um computador pode possuir inúmeros atributos, dentre eles
armazenamento de dados, processamento de dados, cálculo em grande escala, desenho
industrial, tratamento de imagens gráficas, realidade virtual, entretenimento e cultura.

No passado, o termo já foi aplicado a pessoas responsáveis por algum cálculo. Em geral,
entende-se por computador um sistema físico que realiza algum tipo de computação. Existe
ainda o conceito matemático rigoroso, utilizado na teoria da computação.

Assumiu-se que os computadores pessoais e laptops são ícones da Era da Informação, e isto é o
que muitas pessoas consideram como "computador". Entretanto, atualmente as formas mais
comuns de computador em uso são os sistemas embarcados, pequenos dispositivos usados
para controlar outros dispositivos, como robôs, câmeras digitais ou brinquedos.

1. Breve histórico dos Computadores


É inegável que a sociedade moderna se rendeu à sedução de uma série de pequenos
equipamentos, como microcomputadores em diferentes formas e tamanhos: de mesa, notebooks,
tablets e smartphones, relógios com inúmeros recursos, aparelhos portáteis de som e televisão,
telefones fixos e celulares, etc., que, a partir da segunda metade do século XX, e principalmente
no século XXI, estão mudando drasticamente as formas de trabalho e armazenamento de
informações, sem nenhum precedente histórico.

Nem sempre os aparelhos foram tão pequenos: no início do desenvolvimento da computação


eletrônica (50 anos atrás), os equipamentos eram enormes e consumiam grandes quantidades
de válvulas, e que, analogamente aos formidáveis tiranossauros que desapareceram por causa
da seleção natural, foram selecionados e otimizados, tornando-se tão pequenos que funcionam
com pequenas baterias e cabem no bolso.

O ser humano já sonhava com máquinas que o pudessem auxiliar a executar cálculos há
séculos. Exceto por alguns instrumentos como o ábaco e a régua de cálculo. Uma das primeiras
calculadoras registradas pela história foi construída em 1642 por Blaise Pascal, e por isto foi
batizada de Pascalina. Este invento era capaz de realizar as operações matemáticas de adição e
subtração, mas o fato mais importante era de que tinha capacidade de memorização, isto é,
armazenamento dos resultados.
A Pascalina, primeira calculadores criada por Blaise Pascal em 1642

Gottfried Leibniz, em 1671, aperfeiçoou a Pascalina, que passou a fazer as quatro operações
matemáticas básicas e era capaz de extrair a raiz quadrada. Influenciado por velhas fontes
chinesas, este filósofo e matemático alemão encontrou e iniciou o desenvolvimento formal da
aritmética binária, que, posteriormente, tornou-se a base para os computadores eletromecânicos
do século XX.
A calculadora universal, com capacidade de soma, subtração, multiplicação, divisão e raiz quadrada, foi um aperfeiçoamento da máquina de

Pascal feito pelo matemático alemão Gottfried Wilhelm von Leibniz, em 1672.

Em 1801, Joseph Marie Jacquard, retomou a ideia dos cartões perfurados, porém utilizando
agora folhas de cartolina dotadas de furos, que comandavam o primeiro tear totalmente
automático.
Tear de Joseph Marie Jacquard de 1801, utilizando cartões perfurados.
Charles Babbage, baseado no modelo do tear mecânico de Jacquard, projetou a Máquina de
Diferenças em 1822:

Máquina de diferenças de Charles Babbage

Aspectos da Máquina de Diferenças. À esquerda: parte construída em 1832. À direita: aspecto do


mecanismo da Máquina de Diferenças no 2, montada em 1991 para o Science Museum de
Londres.
Mecanismo da máquina de diferenças de Charles Babbage.

Em 1833, projetou a Máquina Analítica e, juntas, podem ser consideradas como os primeiros
computadores do mundo, capazes de memorizar padrões através do uso de cartões perfurados,
isto é, teriam sido, mas a construção de ambas nunca foi possível com a tecnologia disponível na
época.
Máquina Analítica de Charles Babbage, 1833

A assistente de Babbage, Augusta Ada King, Countess of Lovelace (filha do poeta Lord Byron),
uma brilhante matemática, criou uma nova forma de interação com as invenções de Babbage
usando cartões perfurados. Ela é freqüentemente lembrada como a primeira programadora de
computador em decorrência desta descoberta.

Ada Lovelace, considerada a primeira programadora da história.

Em 1890, Hermann Hollerith, idealizou uma máquina também baseada em cartões perfurados,
porém a sua máquina era fundamentalmente um tabulador, um contador de informações com
capacidade para executar algumas operações aritméticas simples. As máquinas de cartão
perfurado de Hollerith permitiram que o senso americano de 1890 fosse processado em 4
semanas, o que antes demorava 7 anos. Mais tarde, Hollerith fundou sua própria empresa que,
posteriormente transformar-se-ia na gigantesca IBM.

Máquina de Hermann Hollerith, 1890.

Em 1906 foi inventada a válvula por Lee de Forest. O aparecimento do computador, como
concebemos atualmente, ocorreu com o surgimento da eletrônica.
Em 1941, Conrad Zuse construiu a primeira calculadora elétrica do mundo, controlada por
programa. De forma independente, três anos mais tarde, nos Estados Unidos, Howard Aiken
desenvolveu o Mark I, também apelidado de o "Monstro de Cambridge".

As máquinas destinadas à guerra vieram logo em seguida. O Colossus, como parte de um


projeto de Inglaterra, continha 1.500 válvulas. O ENIAC, concluído em 1946 pela Universidade de
Pensilvânia, foi encomendado pelo exército em 1943, como fruto do projeto Manhattan, em plena
II Guerra Mundial, destinado a fazer cálculos balísticos. Tinha 18.000 válvulas, 1.500 relés, e
ocupava uma sala de 9 por 30 metros. Podia fazer 500 multiplicações por segundo, porém só
armazenava vinte números de 10 dígitos. Em ambos, as válvulas tinham que ser constantemente
substituídas porque queimavam após poucos minutos de trabalho.
Vista geral do ENIAC em 1946. A máquina ocupava uma sala de 9 x 30 metros.

Os controles aparecem à esquerda e uma pequena parte do dispositivo de saída está à direita.

Estes modelos levaram ao aparecimento das primeiras máquinas fabricadas pela IBM, UNIVAC e
outras grandes empresas do ramo da época.
O transistor, inventado em 1948 por William Shockley, veio a substituir com maior eficiência as
válvulas e foi incorporado aos computadores de segunda geração a partir de 1953.

Em 1962 foram usados pela primeira vez discos magnéticos para armazenamento de
informações, no computador Atlas, em substituição às imensas unidades de fita magnética. Os
discos utilizados nesta época ainda eram fisicamente muito diferentes do que conhecemos
atualmente.

A Corrida Espacial da década de 60 pode ser considerada como um marco histórico no


desenvolvimento computacional. O governo Americano investiu bilhões de dólares em pesquisas
e a criação de um pólo de pesquisas avançadas, a ARPA (Advanced Research Projects Agency),
que promoveu o surgimento de vários conceitos o quais foram empregados e que refletem direta
e indiretamente muito do que há no mundo da informática hoje.

Em 1963 começou a produção dos primeiros circuitos integrados (chips), que permitiram a junção
de vários transistores em uma só pastilha de silício, o que foi um dos grandes passos, senão o
maior na evolução da informática até hoje. Neste momento a eletrônica deu um salto quantitativo
e qualitativo e os computadores construídos com estes chips formaram a Terceira Geração. Com
isto os grandes computadores da década de 50 puderam ser reduzidos a um tamanho tão
pequeno que ocupariam apenas uma fração do espaço ocupado por um dos chips atuais. Isto, de
fato, chegou a ser feito por um grupo de estudantes do Departamento de Engenharia Elétrica da
Universidade de Pensylvania, em 1996, comemorando os 50 anos da ativação do ENIAC.
Recriaram a sua arquitetura básica e circuitos o mais fielmente possível, mas utilizando a
tecnologia CMOS de hoje: o resultado do projeto "ENIAC-on-a-Chip" foi acomodar o computador
em um chip de 7,44mm x 5,29mm x 0,5mm.
Imagem do chip construído por um grupo de estudantes do Departamento de Engenharia Elétrica da Universidade da Pensilvânia, em um projeto

denominado de "ENIAC-on-a-Chip", sob supervisão de Spiegel e Ketterer, em comemoração aos 50 anos de ativação do ENIAC. Utilizou a

tecnologia CMOS e acomodou todo o ENIAC em um chip com dimensões de 7,44 mm x 5,29 mm x 0,5 mm.

Em 1968, Gordon Moore e Robert Noyce fundaram a Intel.

Outros centros de pesquisas que surgiram na década de 60 também tiveram grande papel, como
o MIT (Massachusetts Institute of Technology) e o SRI (Standford Research Institute) que
trabalhavam em pesquisas sobre a interação homem-máquina e cujos conceitos foram
fundamentais para a evolução da micro-informática tal qual conhecemos hoje, com propostas de
novos dispositivos como o mouse e interligação de computadores entre si para a troca de
informações, a rede Ethernet.

O PARC (Palo Alto Research Center), criado pela Xerox em 1970, também teve papel importante.
Neste centro foi desenvolvida toda a base da comunicação visual através de uma interface
gráfica, usando componentes em forma de ícones, janelas e a estrutura WYSIWYG (What You
See Is What You Get - O que você vê é o que você obtém), que mostra na tela seu trabalho
exatamente da maneira como sairá impresso. A Xerox, apesar de possuir o domínio da
tecnologia desde a década de 1970, não se interessou pelos computadores pessoais, os
microcomputadores. Todas as grandes empresas estavam interessadas no mercado dos
computadores de grande porte, para serem implantados em empresas. Não tinham a visão de
pessoas usando computadores em suas casas.

O aparecimento dos microcomputadores ocorreu por volta de 1972, com a invenção dos
microprocessadores. O primeiro foi lançado em 1971 pela Intel, o 4004, cujo chip tinha apenas
2.300 transistores e velocidade de processamento de 108 KHz. Em abril de 1972, a Intel lançou
microprocessador 8008, o primeiro microprocessador de 8 bits. O surgimento dos
microprocessadores foi decorrente do domínio da tecnologia LSI (Large Scale Integration) que
permitia a junção de vários circuitos integrados em um só.

Por volta de 1976, surgem nos EUA os lançamentos do PET (Personal Eletronic Transactor),
Apple II e do TRS-80, os primeiros microcomputadores pessoais. Em 1977, o microcomputador
Apple II é um sucesso; o valor médio do equipamento era de US$ 1.195,00 para uma
configuração com 16 quilobytes de memória RAM, sem monitor. Na ocasião, em meio doméstico,
era comum utilizar o aparelho de televisão como dispositivo de trabalho com o microcomputador.
Em 1980, a Apple II já tinha 50% do mercado de computadores pessoais.

Em 1978, a Oracle desenvolve o primeiro banco de dados relacional.

Em outubro de 1979, a Software Arts lançou o primeiro programa de planilha eletrônica, Visicalc,
e imediatamente foi um sucesso. O número de cópias mensais comercializadas cresceu de 500
para 12.000 entre 1979 e 1981.

Em 1979 a Apple começou a desenvolver outro microcomputador, o Lisa, baseado nos conceitos
que Steve Jobs tinha visto em sua visita ao PARC: a interface gráfica. Através de uma interface
gráfica, o microcomputador tornava-se mais amigável. Funções antes disponíveis somente
através de comandos complicados e de difícil memorização podia ser apresentado através de
símbolos (ou ícones) na tela do computador.

Em 1981, a IBM lança o seu PC (Personal Computer) associado ao sistema operacional MS-
DOS, que se transformou pouco tempo depois em sinônimo de "microcomputador profissional".
Atualmente, os sucessores deste modelo são os microcomputadores mais difundidos e utilizados
mundialmente.

Em 1984, a Apple introduz o Macintosh, utilizando um microprocessador de 32 bits da Motorola


(64000), com 8 MHz de clock, incorporando o conceito de interface gráfica para a comunicação
com o usuário. Posteriormente a Microsoft adota a interface gráfica, lançando o Windows.

Diversos outros fabricantes de software criaram seus próprios ambientes gráficos, tais como o
DESQ (Quaterdeck),  que foi re-desenvolvido e lançado depois como DESQView , o VisiOn
(VisiCorp), o TopView (IBM) e o GEM (Digital Research). Destes, o que foi mais utilizado como
suporte a diversos programas que utilizavam recursos gráficos, pelo suporte ao WYSIWYG, foi o
GEM.

Em novembro de 1985, a Microsoft lança o Windows 1.0 e em 1990, lança o Windows 3.0, que
se torna a primeira interface gráfica para PC a ser amplamente utilizada como base para o
desenvolvimento de outros sistemas.

Em 1992, a Microsoft lança o Windows 3.1, corrigindo os erros da versão anterior. As vendas
ultrapassaram 1 milhão de cópias.

Em 1993, a Intel lança o microprocessador Pentium, com 3,3 milhões de transistores e começa a
ser distribuído o Mosaic, o primeiro browser para a Web.

Em 1994 é lançada a primeira versão do Netscape Navigator.

Em agosto de 1995 é lançado o Windows 95, e a Netscape lança a versão 2.0 do Navigator com
recursos para troca de e-mails.

Em 1997, a Intel anuncia o lançamento do Pentium II, com 7,5 milhões de transistores.

Em julho de 1997, a Microsoft lança o Windows 98.

Em 17 de fevereiro de 2000, a Microsoft lança o Windows 2000.


2. Evolução do Mundo Computacional
Nestas duas últimas décadas a informática tem evoluído com velocidade sem paralelo na
história. Recursos computacionais que há 10 anos atrás eram restritos a equipamentos de alto
custo, hoje estão totalmente disponíveis para ambientes de microinformática de uso rotineiro e a
custos acessíveis.

São exemplos deste progresso: discos de armazenamento de dados da ordem de dezenas de


gigabytes e memórias RAM da ordem de centenas de megabytes, microprocessadores e
correspondentes velocidades de processamento mais elevadas, monitores e placas de vídeo
com maior definição e número de cores, entre outros. Os microcomputadores atuais têm
capacidade de processamento comparáveis aos minicomputadores e mainframes de pequeno
porte da década de 1980.

Gráficos demonstrativos da evolução dos processadores quanto à velocidade e número de transistores.

Número de transistores e velocidade de alguns processadores produzidos pela Intel,


exemplificando a evolução tecnológica que ocorreu entre 1971 e 1999.

Evolução dos processadores de 1971 a 1999, dados obtidos da Intel Corporation

Em 1965, Gordon Moore, um dos fundadores da Intel, previu que a densidade de transistores dos
microprocessadores seria duplicada a cada 2 anos, o que ficou conhecido como "Lei de Moore".

3. Internet e Word Wide Web

3.1 Aspectos gerais

A Internet é uma revolução e uma nova forma da humanidade de se relacionar com a informação.
Ela rompe todas as barreiras físicas, e permite que uma pessoa em qualquer lugar da terra tenha
acesso às informações que, praticamente, abrangem todas as áreas do conhecimento humano.
O maior problema atual da  Internet  não é verificar se existe alguma área que não esteja
representada, mas é selecionar as informações de qualidade e que sejam confiáveis no
mundo Web.

3.2. Um breve histórico da Internet

A  Internet  teve suas origens com a ARPANET (Advanced Research Project Agency  -
Departamento de Defesa Americana, 1969), na época de Guerra Fria, quando era constituída
pela interligação de 4 computadores. Nesta ocasião já foram implementados alguns dos recursos
atualmente utilizados de forma ampla, como o e-mail. Mas a Internet somente adquiriu expressão
após a invenção da World Wide Web (WWW), que é uma forma de transmissão de informações
com recursos de multimídia, através da estrutura física da Internet.

A Web começou em março de 1989, com Tim Berners-Lee do European Laboratory for Particle
Physics (mais conhecido como CERN) quando ele propôs um novo conjunto de protocolos para
um sistema de distribuição de informações da  Internet. Neste momento surgiu o protocolo da
WWW que foi rapidamente adotado por outras organizações, e foi constituído um consórcio de
organizações, chamado de 3W Consortium  (liderado pelo MIT, CERN e pelo INRA), que uniu
seus recursos para prosseguir com o desenvolvimento de padrões WWW.

O NCSA (National Center for Supercomputing Applications) assumiu o projeto para o


desenvolvimento de um aplicativo gráfico de fácil utilização que iria estimular o desenvolvimento
comercial e o suporte à WWW, lançando em 1993 o primeiro browser (Mosaic) nas plataformas
Unix, Macintoch e Microsoft Windows. Em 1994, o Netscape (1994) lançou o Netscape Navigator.
A partir de então, com a liberação de rede para o mercado comercial, a  Internet  experimentou
uma explosão, tornando-se um grande meio de informação disponível mundialmente.

3.3. Infra-estrutura de telecomunicação no Brasil

O Brasil sempre teve problemas consideráveis tanto em relação à disponibilidade quanto em


relação à qualidade das linhas telefônicas. Este cenário vem se modificando nestes últimos anos
em decorrência de investimentos na modernização da infraestrutura de telecomunicação
nacional, resultando no fornecimento de linhas digitais e linhas de banda larga, como as
disponibilizadas pelas tecnologias ISDN e ADSL. As TVs a cabo também se tornaram uma
alternativa para acesso rápido à Internet. Até o segundo semestre de 1999 só estava disponível o
sistema unidirecional. E a partir do primeiro semestre de 2000, começou a implantação de
serviço bidirecional.

A tecnologia ADSL (Asymmetric Digital Subscriber Line), permite velocidade de transferência de


dados até 140 vezes superiores aos oferecidos pelos Modems analógicos, através de uma linha
telefônica normal. Permite que se fique conectado permanentemente na  Internet  com um custo
fixo mensal, sem pagamento de impulsos telefônicos. Esta particularidade facilita o uso no dia a
dia, pois a  Internet  está sempre disponível, sem necessidade de fazer uma nova conexão toda
vez que se deseja usá-la. Além disto, a linha de voz continua disponível para uso normal mesmo
durante a navegação na Web, porque através da divisão da linha telefônica em duas faixas de
frequências, reserva-se à faixa abaixo de 4 KHz, para a voz, e acima desta freqüência, para
tráfego de dados. A palavra "assimétrica" da sigla ADSL aparece porque existe uma reserva
maior de largura de banda para recepção do que para envio de dados; as velocidades de
recepção podem variar de 256 Kbytes até 8 Mbytes.
Uma conexão do tipo ISDN baseia-se na tecnologia de uma linha telefônica especial, totalmente
digital, denominada DVI (Digital Voice and Image). É composta por 2 canais independentes,
pelos quais pode-se trafegar voz, dados e imagens. Permite conexão à Internet a partir de 64
Kbps, podendo chegar a 128 Kbps, caso as duas linhas estejam sendo utilizadas
simultaneamente. Esta tecnologia também permite acessar a Internet e falar ao telefone
simultaneamente.

A TV a cabo é também uma alternativa para acesso rápido à  Internet. Existem dois tipos no
mercado:

Unidirecional para downstream; neste modelo é necessário o uso de linha telefônica


para o envio das requisições, sendo o  downstream  feito de forma mais rápida pelo
sistema de TV a cabo.
Bidirecional; nesta forma é dispensável o uso de telefone, pois tanto as requisições
como os downstreams são feitas através do sistema de TV a cabo.

As tecnologias de ADSL e TV a cabo são soluções com boa relação custo/benefício para
usuários que utilizam a  Web  com muita freqüência e queiram estar permanentemente
conectados, sem sacrificar uma linha telefônica.

4. Engenharia de software
A engenharia de software já é uma tecnologia altamente desenvolvida e existe uma ampla
literatura disponível para leitura. Alguns pontos relevantes para o desenvolvimento de um
software são sumarizados a seguir:

4.1. Aspectos gerais


O principal desafio nas primeiras décadas da era do computador foi desenvolver equipamentos
que reduzissem os custos de processamento e armazenamento de dados. No entanto, a
microeletrônica avançou e, principalmente a partir da década de 1980, esta meta começou a ser
alcançada. O poder de processamento dos computadores de grande porte (mainframe) da
década de 1980 está disponível hoje sobre qualquer escrivaninha. O melhor desempenho do
hardware, diminuição do tamanho e custos menores ofereceram ambiente para o aparecimento
de computadores mais sofisticados. Atualmente, o problema é diferente: o principal desafio, desta
década de 1990, foi melhorar a qualidade e reduzir os custos de soluções baseadas em
computador, implementadas com o uso de software.

4.2. Evolução dos softwares

O período compreendido entre 1950 e meado de 1960, pode ser chamado de a primeira era dos
sistemas computadorizados. Caracterizou-se por mudanças freqüentes no  hardware, sendo
que o desenvolvimento do software era considerado por muitos, como uma atividade secundária.
Os desenvolvimentos eram feitos sem uma administração mais profissional, como planejamento
de prazos e custos. Os softwares eram projetados sob medida, específicos para cada aplicação,
com distribuição relativamente limitada. Geralmente eram desenvolvidos para uso próprio
(próprio programador ou própria organização) e, na maioria dos casos, os sistemas eram
executados em ambiente  batch  (lote), com talvez raras exceções, como o desenvolvimento do
primeiro sistema de reservas da  American Airlines  e os sistemas de defesa americana, que
eram  on-line. Devido à limitação, os  hardwares  eram dedicados à execução de apenas uma
aplicação em cada momento. Não tinham recursos para executar multitarefa.
A segunda era da evolução dos sistemas computadorizados ocorre entre meados da década de
1960 e o final da década de 1970. A multiprogramação e os sistemas multiusuários introduziram
novos conceitos relacionados com a interação homem-máquina.
Os  softwares  caracteristicamente eram utilizados para gerenciar em tempo real, com coleta,
análise e transformação de dados, de várias fontes, simultaneamente. A evolução do
armazenamento on-line levou ao surgimento dos sistemas de gerenciamento de banco de dados.
O  software  passou a ser visto como um produto, não mais considerado como um simples
apêndice do  hardware. Este cenário possibilitou o aparecimento das "software houses". Os
programas passaram a ser desenvolvidos visando a distribuição mais ampla, contando-se
centenas a milhares de cópias.

A terceira era da evolução dos sistemas computadorizados inicia-se em meados da década de


1970 e continua até fins da década de 1980, e é caracterizado pelos sistemas distribuídos
(múltiplos computadores, cada um executando funções concomitantemente e comunicando-se
um com outro), e foram os responsáveis pelo aumento da complexidade dos sistemas
computacionais. Esta era é caracterizada pelas redes globais e locais, comunicações digitais de
banda larga, crescente aumento de demanda por acessos on-line de dados, uso generalizado de
microprocessadores, computadores pessoais e estações de trabalho de mesa. O computador
pessoal foi o fator que estimulou o aparecimento e crescimento de muitas empresas de software.
O hardware se torna num produto comum, com características e capacidades muito semelhantes
entre eles, enquanto que o  software  se torna fator que os diferencia um do outro. Enquanto a
taxa de crescimento das vendas dos computadores pessoais começou a se estabilizar a partir de
meados de 1980, as vendas de  software  continuaram a crescer. As pessoas gastaram mais
dinheiro com software do que com hardware.
A quarta era da evolução dos sistemas computadorizados compreende o período de meados de
1980 até hoje. É caracterizada pelos poderosos sistemas de mesa, sistemas especialistas, rede
neurais artificiais, processamento paralelo e tecnologias orientadas a objeto substituindo as
abordagens convencionais de desenvolvimento.

Talvez a 20 anos atrás, menos de 1% do público fosse capaz de definir o que era um "programa
de computador". Mas mesmo hoje, talvez muitas pessoas, incluindo muitos profissionais, ainda
não entendam realmente o que é um software, e que merece algumas considerações:

Um software é um elemento lógico, e não físico, o que lhe confere características bem
diferentes do hardware.
Um software é projetado ou desenvolvido por processo de engenharia, mas não é
manufaturado no sentido convencional.
Os aspectos determinantes de qualidade durante a manufatura de um hardware são
diferentes dos aspectos da produção de um software. Problemas que não existem ou
que seriam facilmente corrigidos na manufatura de um software podem causar
conseqüências graves na produção de um hardware. Um exemplo de problema que
não existe na produção de software e que pode afetar na produção de hardware é a
sala limpa na produção dos discos rígidos. Um outro exemplo é uma peça de uma
linha de montagem, cujo equivalente em um software são os vários módulos e rotinas
que, ao apresentar algum problema, pode causar menos distúrbio para ser substituída
do que no caso de um hardware.
Os custos do software estão principalmente concentrados na fase da engenharia.
Software não se "desgasta". O software não é sensível aos problemas ambientais que
desgastam os equipamentos, mas ele pode "deteriorar".
Quando um componente de hardware se desgasta, ele pode ser substituído por outro
de reposição. No software não existe peça de reposição. Toda falha indica erro de
projeto ou de codificação. Assim, o processo de manutenção de um software é
consideravelmente mais complexo.
Diferentemente dos projetos de hardware que podem contar com uma grande
quantidade de componentes digitais disponíveis para a construção do hardware, os
projetos de software não dispõem destas facilidades, pois salvo raras exceções, não
existe disponibilidade de componentes de software que possam ser utilizados para
montagem de novos softwares.

5. Aspectos da Interface Homem-Máquina (IHM)

Existem vários estudos que tentam compreender a forma de como o ser humano percebe o
mundo através de seu sistema sensorial. Através desta abordagem pode-se estabelecer os
fundamentos para a elaboração das interfaces que possibilitem ao usuário de um sistema
computacional receber as informações, guardá-las na memória (humana) e "processá-las",
usando os raciocínios indutivo e dedutivo. Principalmente os sentidos visual, tátil e auditivo são
considerados na interface ser humano-computador.

Apesar da tendência atual de cada vez mais os projetos de Human Computer Interface (HCI) se
basearem na comunicação gráfica, grande parte das informações ainda são apresentadas na
forma de texto. A leitura, o processo de extrair informações de textos através da decodificação
dos padrões visuais e recuperação do significado das palavras ou frases, é uma atividade
inerente à maioria das interfaces. O tamanho do texto, tipo de fonte, extensão da linha de texto,
letras maiúsculas, localização e cor, todos afetam a facilidade com que ocorre a extração de
informações.

À medida que as informações são extraídas da interface, elas são armazenadas para posterior
recuperação e uso. Além das informações, o usuário precisa lembrar dos comandos, sequências
de operação, alternativas de trabalho e outros recursos disponíveis do sistema, que nem sempre
estão evidentes na interface (teclas de atalho, janelas e menus secundários, etc.). Todas essas
informações são armazenadas na memória humana, um sistema extremamente complexo que,
segundo se acredita atualmente, é composto de memória de curto prazo (Short-Term Memory -
STM) e memória de longo prazo (Long-Term Memory - LTM). O input sensorial (visual, auditivo,
tátil) é colocado num "buffer" e depois armazenado em STM, de onde pode imediatamente ser
usado. O tamanho do "buffer" e a extensão de tempo durante o qual o uso pode ocorrer são
limitados. O conhecimento é mantido em LTM e forma a base de nossa resposta aprendida
quando uma HCI é usada. Tanto as informações semânticas como as sintáticas são
armazenadas em LTM. Caso a especificação de uma interface entre o ser humano e o
computador não atenda adequadamente às características da STM e/ou LTM, o desempenho do
elemento humano pode ter menor rendimento.

6. Pascal

6.1. Biografia

Blaise Pascal, filósofo, matemático, físico, teólogo e escritor de origem francesa, nasceu em
Clermont-Ferrand, região de Auvergne na França a 19 de junho de 1623, mas aos nove anos de
idade foi morar com toda a sua família em Paris. Era filho de Etienne Pascal, um matemático e
alto funcionário do Estado, que se dedicou com muita eficiência na formação educacional de
seus filhos, Pascal e Jacqueline passando, mais tarde a se chamar irmã Sainte-Euphémie pelo
fato de entrar, em 1652, para o convento de Port-Royal.
Pascal, segundo sua irmã, era na época um gênio, pois aos doze anos começou a trabalhar em
Geometria, chegando a descobrir que a soma dos ângulos de um triângulo é igual a dois ângulos
retos, mesmo seu pai ter decidido, anteriormente, que seria ele próprio a ensinar os filhos e que
Pascal não estudaria matemática antes dos quinze anos, mandando retirar todos os livros e
textos matemáticos de dentro de casa.

Etienne Pascal mesmo não sendo uma pessoa totalmente ortodoxa, frequentava reuniões na
casa do Padre franciscano Marin Mersenne, filósofo e físico francês, com respeito à religião e
outros assuntos, como: filosofia, física, matemática, etc. onde participava, também, muitas
personalidades importantes. Foi quando, com aproximadamente quatorze anos, Pascal decidiu
acompanhar seu pai nessas reuniões e aos dezesseis anos apresentou vários teoremas de
Geometria Projetiva, onde constava o conhecido "Hexagrama Místico" em que demonstra que 
"se um hexágono estiver inscrito numa cônica, então as interseções de cada um dos três pares
de lados opostos são colineares", onde em fevereiro de 1640 escreveu "Éssai sur les coniques"
(Ensaio sobre as cônicas) baseado no estudo de Girard Desargues.

A contribuição de Pascal às ciências é bem menos metódica e fecunda do que brilhante, levando
um de seus biógrafos a situá-lo como "o primeiro da segunda fila". Com o seu escrito sobre as
cônicas, o adolescente, todavia, suscita a admiração de Mersenne, que se pronuncia a respeito
em carta para Descartes. Em sua resposta, este último não vai além de estranhar "que alguém
consiga demonstrações mais simples que as de Apolônio...", concluindo pela existência de
"questões acerca das cônicas que um jovem de 16 nos acharia difícil explicar".

Faz parte desse estudo das cônicas o  “Teorema de Pascal”:  "O hexágono inscrito em uma
cônica tem a propriedade de que os pontos de interseção dos lados opostos estão em linha reta".
Em trabalho posterior e extraviado, o "Traité des coniques", conhecido apenas através de Leibniz,
Pascal aborda o que chama de  “Hexagrama Místico"; por meio de projeções, demonstra que
todo hexágono provém de uma cônica correspondente e que, por sua vez, qualquer cônica
origina um hexágono. O Hexagrama serve-lhe de ponto de partida à obtenção, em quatrocentos
corolários, das propriedades peculiares às cônicas.

Pelo fato de seu pai ser nomeado coletor de impostos da Normandia Superior, em 1639, fez com
que toda a família deixasse Paris e fosse morar em Rouen (sede da região da Alta Normandia ,
localizada na França), onde realizou suas primeiras pesquisas no campo da física, escrevendo
um tratado sobre acústica, sendo um dos pioneiros da experimentação física. Nessa época,
inventou, também, uma pequena máquina de calcular digital, chamada Pascalinne, conservada,
atualmente no Conservatório de Artes e Medidas de Paris.
De regresso a Paris em 1647, Pascal publicou "Expériences nouvelles touchant le vide" (Novas
experiências relativas ao vácuo) e  "Préface du traité du vide" (Prefácio ao tratado do vácuo),
mostrando os resultados de sua experimentação em torno das hipóteses de Torricelli sobre a
natureza do vácuo, concluindo que, ao contrário do que se supunha, não tem "horror ao vácuo".
A opinião de Descartes, manifesta em sua correspondência com Huygens, não se pode
considerar entusiástica , pois julga as provas insuficientes e acha que "o autor do opúsculo tem
abundante vácuo na cabeça". Um após outro, os princípios segundo os quais  "a natureza tem
invencível horror ao vácuo”    e  "a natureza tem horror ao vácuo, mas não invencível" são
contrariados por Pascal em Paris, quando repete suas experiências. Neste mesmo ano, inventou,
também, a seringa e aperfeiçoou o barômetro de Torricelli.

Em 1648, publica "Récit de la grande expérience de l'équilibre des liqueurs..." (Relato da grande
experiência sobre o equilíbrio dos líquidos...) relacionado com a pressão dos fluídos e hidráulica.
O princípio de Pascal diz que a pressão aplicada a um fluido contido em um recipiente é
transmitida integralmente a todos os pontos do fluído e às paredes do recipiente que o contém.
Este é o princípio do macaco e do martelo hidráulicos.

Em 1651, com a morte do seu pai, Pascal teve um período de contatos com a vida mundana,
convivendo com a nobreza da época. Escreveu para uma de suas irmãs uma carta relatando
tudo sobre a morte de seu querido pai com um profundo significado cristão em face de sua
família ser devota e adotava princípios católicos rigorosos.

Em 1654, depois de quase morrer em um acidente de carruagem e de levar uma vida mundana
em Paris, o sábio experimenta, juntamente com um grande desprezo pelo mundo, o vazio do
coração e a necessidade de Deus, Pascal passou por uma experiência mística, decidindo
consagrar-se a Deus e à religião. Elegeu seu guia espiritual o padre jansenista Singlin e
recolheu-se na noite do dia 23 de novembro de 1654 à Port-Royal des Champs, e seu êxtase
lembra o de São Paulo; "Fogo...Deus de Abraão, Deus de Isaac, Deus de Jacob, não dos
filósofos e sábios...Deus de Jesus Cristo...Grandeza da alma humana...Alegria, alegria, lágrimas
de alegria...Renúncia total e doce".

Nesta época, Pascal já se destacava como o primeiro grande prosador da literatura francesa,
tornando-se um dos alicerces mais notáveis, pela amplitude e riqueza de seu estilo, capaz de
comunicar um pensamento em que os conflitos e a própria natureza das reflexões prefiguram o
espírito moderno. Dominando uma linguagem profundamente identificada com o seu modo -
particularíssimo - de sentir e pensar o mundo, encontra-se em Pascal, em primeiro plano, a
contradição entre a lógica pura, a geometria, e uma inquietação, uma angústia que, em seu caso,
já se pode chamar de existencial. Se de um lado há um físico, o empirista antiaristotélico, afiando
o olhar e a descoberta exata, do outro lado está o metafísico, o céptico entre o espírito e a carne,
ao mesmo tempo ferido e fascinado pelos mistérios da condição humana.

Esta última, a “condição humana”, em toda a sua complexidade (a ponto de adquirir a expressão
o sentido que a define na filosofia moderna), talvez seja a experiência e a revelação mais valiosa
de Pascal. Exprimindo o antagonismo entre as potencialidades espirituais e a miséria física do
homem, vendo na vida a morte e convivendo com a morte, Pascal só encontra e só aponta uma
saída: a da religião cristã, em que o dilema se explicaria com outra contradição, a do homem
como criatura de Deus e vítima do pecado original, grandeza e fragilidade em conflito
permanente.

Certo, porém, de que sua angústia era uma consciência desesperada, mas fecunda, dos desafios
epistemológicos e metodológicos da teologia e da filosofia, Pascal combate o jesuitismo,
"simplificador" da religião, responsável pela substituição da angústia metafísica pela observância
automática dos ritos. Desde que se retira para Port-Royal, exerce ali sua atividade literária,
tomando a defesa dos adeptos de Jansênio. Sua grande participação na polêmica entre
jansenistas e jesuítas, vigorosamente a favor dos primeiros, aparece nas  "18 Lettres écrites por
louis de Montalte a um provincial " em 1656-1657 (Cartas escritas por Luís de Montalte a um
provincial), conhecidas como  "Les Provinciales " (As Provinciais).

Ainda em 1654, Pascal estudou e demonstrou um trabalho matemático intitulado "Traité du


triangle arithmétique”  (tratado do triângulo Aritmético) o qual foi publicado neste mesmo ano,
onde estabelece as séries que possibilitam o cálculo das combinações de  m ���  elementos
tomados  n ���  a  n ���  e das potências semelhantes nos termos de uma progressão
aritmética.

Antes de Pascal, Tartaglia usara o referido triângulo nos seus trabalhos e, muito antes, os
matemáticos árabes e chineses já o utilizavam. Podemos aumentar indefinidamente, este
triângulo, bastando, para isso, aumentar o número de linhas da seguinte maneira: cada número é
igual à soma do par de números acima de si. Este triângulo é conhecido como Triângulo de
Pascal ou Triângulo de Tartaglia, apresentando inúmeras propriedades e relações. Entre as quais
a Sucessão de Fibonacci em que as somas dos números dispostos ao longo das diagonais do
triângulo geram a referida série.
Pascal corresponde-se com Fermat e outros eminentes cientistas de seu tempo, neste mesmo
ano, comparando com os resultados destes, a cada passo, as hipóteses e resultados de suas
pesquisas, a que se deve ainda, um papel de relevo na formulação dos princípios da relatividade
física universal, na resolução do problema da cicloide, na criação da geodésia barométrica, nos
fundamentos do cálculo das probabilidades e da análise infinitesimal.

Em 1658 publica "Lettre Circulaire relative á la cycloïde " (Circular sobre a cicloide) e  “Écrits sur
la grâce” (1656-1658; Escritos sobre a graça).

O essencial da doutrina filosófica de Pascal está na contraposição - não excludente - dos dois
elementos básicos do conhecimento: de um lado, a razão com suas mediações que tendem ao
exato, ao lógico e discursivo (espírito geométrico); de outro lado, a emoção - ou o coração -,
transcendendo o mundo exterior, intuitiva, capaz de aprender aquilo que não se pode exprimir
por palavras, o religioso, o moral (espírito de finura).

A compreensão desse modo de ser do homem, sua condição no mundo estabelecida entre
extremos, é o principal objeto da filosofia pascaliana. No fundo daquela bipartição estaria, para
Pascal, a oposição entre a natureza divina do espírito e a natureza humana e falha, pecaminosa,
da matéria. À medida que reconhece esse aspecto pequeno, frágil, sua miséria propriamente
dita, em um comportamento em que a dúvida e a incerteza refletem os dois pólos da luta que não
cessa, o homem, no mesmo passo em que se identifica, se vê diante de Deus, podendo elevar-
se se realizar através dele.

6.2. Contribuições Relevantes


6.2.1. Geometria Projetiva

Fiel ao significado da nova concepção das crônicas de Desargues, Pascal adotou as ideias
básicas do Brouillon project: a introdução dos elementos no infinitésimo; a definição de uma
cônica como qualquer secção plana de um cone com uma base circular; o estudo das cônicas
como círculos em perspectiva; e a involuta determinada em qualquer linha reta por uma cônica e
os lados opostos de um quadrilátero inscrito. Em junho de 1639, Pascal fez sua primeira grande
descoberta, como já dito, o "Hexagrama Místico" de Pascal; de acordo com ele, os três pontos de
intersecção dos pares de lados opostos de um hexágono inscrito numa cônica são colineares.
Logo depois ele viu a possibilidade de basear um estudo de cônicas nesta propriedade. Depois
ele escreveu Essay pour les coniques , um livro com poucas cópias publicadas. Planos para mais
pesquisa, ilustrados com declarações de proposições típicas que ele havia descoberto, o Essay
constituía um esboço do grande tratado das cônicas que ele acabara de conceber e começava a
preparar.

Mais tarde ele obteve a solução geométrica definitiva para o problema de Pappus. Em 1654,
Pascal praticamente terminou o tratado, baseado em apenas uma proposição - da qual ele teve a
ideia antes de completar 16 anos. Ele também mencionou alguns problemas geométricos
especiais para o qual seu método projetivo poderia ser utilmente aplicado: círculos ou esferas
definidos por três ou quatro condições; cônicas determinadas por cinco elementos (pontos ou
tangentes); lugares geométricos compostos por linhas retas, círculos ou cônicas; e um método
geral para perspectiva. O tratado nunca foi publicado e parece que apenas Leibniz viu o
manuscrito e, os detalhes mais precisos são conhecidos por intermédio dele. Embora os poucos
elementos do tratado preservados por Leibniz não retratem seu conteúdo completo, eles são
suficientes para mostrar a riqueza e a clareza da concepção de Pascal. É razoável assumir que a
publicação deste trabalho teria apressado o desenvolvimento da geometria projetiva.
6.2.2. Cálculos mecânicos

Ansioso para ajudar seu pai, cujas obrigações exigiam um grande número de contas, Pascal
procurou mecanizar as duas operações elementares da aritmética, adição e subtração. No final
de 1642 ele começou o projeto da máquina que iria reduzir estas operações ao simples
movimento de engrenagens. Depois de resolver o problema teórico, restou a ele produzir a
máquina que deveria ser rápida, confiável e fácil de operar. A construção, entretanto, se tornou
extremamente difícil com as imprecisas e rudimentares técnicas disponíveis. Neste
empreendimento, Pascal demonstrou notável senso prático, grande preocupação com a
eficiência e inegável obstinação. Supervisionando uma equipe, ele construiu o primeiro modelo
em poucos meses mas, julgando este insatisfatório, ele resolveu melhorá-lo. Os problemas
encontrados o desencorajaram e acabou por abandonar o projeto. No começo de 1644, o
incentivo de muitas pessoas o fez voltar à máquina de calcular e depois , segundo ele, "de mais
de cinqüenta modelos" , finalmente produziu o modelo definitivo. Ele próprio organizou a
fabricação e a venda das máquinas.

É difícil estimar o sucesso alcançado pela máquina de calcular de Pascal, a primeira do gênero a
ser vendida. Embora seu mecanismo fosse complicado, a máquina funcionava de uma maneira
relativamente fácil - pelo menos as duas operações a que estava destinada. Seu alto preço,
entretanto, limitava a venda e causou mais curiosidade do que interesse em sua utilidade. Sete
máquinas existem em público e em coleções particulares. Em 1652, ele demonstrou seu uso
durante uma conferência e deu uma de presente à rainha Christina da Suécia.

6.2.3. Cálculo das probabilidades


O ano de 1654 foi extremamente proveitoso para Pascal. Ele não só apenas refinou seus
tratados em geometria e física como também conduziu seu principal estudo em aritmética,
análise combinatória e o cálculo da probabilidade.

Trocou cartas com Fermat que tratavam das regras que governavam os jogos de azar. A
discussão entre eles girava em torno de dois problemas principais. O primeiro preocupado com a
probabilidade de um jogador obter uma certa face de um dado num certo número de jogadas. O
segundo, mais complexo, consistia em determinar, para qualquer jogo de azar envolvendo muitos
jogadores, o valor das apostas que iria retornar a cada jogador se o jogo fosse interrompido.
Desta correspondência veio o triângulo aritmético (o triângulo de Pascal) e uma brilhante
formulação do modo como a probabilidade poderia ser calculada, o que Pascal chamou da
"matemática das chances".

A aplicação deste trabalho à estatística é evidente e ele pode ser visto como um passo para o
cálculo (descoberto uns 30 anos depois por Newton e Leibniz).

A preocupação de Pascal, além do aspecto puramente matemático dos problemas, era vincular
decisões e eventos incertos. Seu propósito não era definir o status matemático do conceito de
probabilidade - um termo que ele não empregou - mas resolver o problema de dividir as apostas.
Este esforço deve ser visto num contexto de discussões conduzidas por juristas, teólogos e
moralistas nos séculos dezesseis e dezessete a respeito das conseqüências das chances nas
mais variadas circunstâncias da vida individual e em comunidade.

6.2.4. O triângulo de Pascal


É um arranjo de números, usado para calcular coeficientes binomiais. Ele é construído somando-
se dois números adjacentes numa linha e colocando a soma entre eles, na próxima linha abaixo.

É conveniente alinha-lo à esquerda e chamar as linhas de  n = 1, 2, 3, ⋯ ��� = 1, 2, 3, ⋯  e


as colunas de r = 0, 1, 2, 3, ⋯ ��� = 0, 1, 2, 3, ⋯  . Cada entrada é a soma do número acima
com o da sua esquerda acima. A entrada na  n-ésima linha e na  r-ésima é chamada de 
C(n, r) ���(���, ���).Então, C(5, 2) = 10 ���(5, 2) = 10.

Os números C(n, r) ���(���, ���) são chamadas de coeficientes binomiais, já que eles


aparecem no teorema binomial. A fórmula familiar:

(x + y) 2 = x 2 + 2xy + y 2
2 2 2
(��� + ���) = ��� + 2������ + ���

tem coeficientes 1, 2, 1 1, 2, 1 do lado direito. Estes são precisamente a linha n = 2 ��� = 2 da
figura acima. Os coeficientes podem ser obtidos diretamente pela fórmula:
n!
C(n, r) =
r!(n − r)!
���!
���(���, ���) =
���!(��� − ���)!

6.2.5. Estática dos fluidos e o problema do vácuo

O interesse em física foi despertado pelas experiências de Evangelista Torricelli em 1644, e por
sete anos ele conduziu uma série de experimentos para testar e finalmente refutar a visão aceita
que a natureza abomina o vácuo. Tradicionalistas acreditavam nisto pela autoridade de
Aristóteles, mas Pascal tinha cabeça aberta suficiente para testar o axioma e chegar a
inesperadas conclusões. Os resultados são embasados nos papéis sobre pressão barométrica
(On the Weight of the Atmosphere) e a pressão hidráulica (On the Equilibrium of Liquids).

Não menos significativo que estes resultados, é o conjunto de experiências organizadas em 1648
para medir a pressão barométrica simultaneamente em diferentes altitudes. Tubos de vidro de
vários tamanhos foram fabricados, alturas ao longo das montanhas de Puy-de-Dôme em volta de
Clermont cuidadosamente medidas, condições climáticas anotadas e leituras dos instrumentos
checadas duas vezes. Tudo isso é uma utilização do método experimental. Contra críticas,
Pascal defendeu que as evidências de dados experimentais têm mais autoridade nas ciências
naturais do que o peso das tradições. O prefácio do inacabado Treatise on the Vacuum (1651)
fala disso convincentemente e faz comparação com o respeito servil das suas críticas aos
Jesuítas pela tradição na ciência com as inovações deles em teologia, um assunto corretamente
dependente da autoridade da revelação, das Escrituras e dos Padres.
6.2.6. O princípio de Pascal

É um importante princípio da estática dos fluídos, que se enuncia da seguinte maneira: "Toda
variação de pressão se transmite integralmente em um líquido incompressível em equilíbrio".
Este princípio fundamental da Hidrostática, que diz ser a diferença de pressão entre dois pontos
A e B da massa líquida igual a:

pA − pB = h ⋅ d ⋅ g
������ − ������ = ℎ ⋅ ��� ⋅ ���

Se, por um processo qualquer , aumentar-se a pressão em um ponto A do líquido, aumenta-se do


mesmo valor a quantidade em um ponto B, qualquer, do líquido. A aplicação mais direta deste
princípio é a prensa hidráulica, com a qual se consegue uma grande multiplicação de força.

6.2.7. O cálculo dos indivisíveis e o estudo dos problemas infinitesimais

Entre 1658 e 1659 dedicou a maior parte do seu tempo aprimorando a "teoria dos indivisíveis", o
precursor dos métodos do cálculo integral. Esta teoria lhe permitiu estudar os problemas que
envolviam infinitesimais: cálculo de áreas e volumes, determinação dos centros de gravidade e
retificação de curvas.

A primeira vez que Pascal se referiu ao método dos indivisíveis foi no trabalho aritmético em
1654. Ele observou que com os resultados da soma de potências numéricas era possível obter a
solução de certos problemas. Por exemplo, ele explicou o conhecido resultado da integral de 
x n ��� ��� para todo n ���, na notação moderna.
No começo de 1658, Pascal acreditava que havia aprimorado o cálculo dos indivisíveis, refinando
seu método e estendendo seu campo de aplicação. Convencido de que desta forma havia
descoberto a solução para muitos problemas infinitesimais de cicloides, ele resolveu desafiar
outros matemáticos a resolver estes problemas. Numa circular sem assinatura distribuída em
junho, Pascal explicou as condições do torneio e fixou a data de primeiro de outubro para seu
encerramento. Muitos matemáticos da época participaram do desafio com interesse. Suas
soluções foram consideradas incompletas e eles foram eliminados, o que lhes causou raiva,
principalmente pelo preconceito. No final do torneio, Pascal publicou suas próprias soluções.

Pascal se inspirou em Arquimedes para solucionar o cálculo dos indivisíveis; era baseado nos
fundamentos geométricos. As características mais notáveis do seu trabalho, que não foi
terminado, são a importância da determinação dos centros de gravidade, o papel crucial das
somas triangulares e as considerações estáticas, seu rigor estilístico e elegância, e o uso de uma
linguagem geométrica tão limpa e precisa que compensa a falta de simbolismo geométrico. Entre
as contribuições do trabalho, está a descoberta da igualdade da curvatura de um cicloide
generalizado e de uma elipse; o aprofundamento do conceito de indivisível; o primeiro passo em
direção ao conceito de integral definida e a determinação de suas propriedades fundamentais; e
o recurso indireto de certos métodos de cálculo, como a integração por partes. Assimiladas e
exploradas por seus sucessores, estas inovações contribuíram para a elaboração de métodos
infinitesimais. Entretanto, a sua maior contribuição aparece implicitamente no uso do triângulo
característico. Leibniz afirmou que os escritos de Pascal a respeito do triângulo o estimularam.
Este testemunho de um dos criadores do cálculo infinitesimal indica que o trabalho de Pascal
marca uma importante transição do cálculo dos indivisíveis para o cálculo integral. Apesar disso,
Pascal foi incapaz de transcender a natureza específica de suas concepções. Não conseguiu
desenvolver os resultados que ele obteve nem utilizar o efeito completo e a generalidade dos
métodos implícitos. Esta falha parcial se deve a duas causas: sua recusa em utilizar o
simbolismo algébrico cartesiano; e suas preocupações místicas que o levavam a interromper
suas pesquisas logo depois que as começava.

Em 1659, ficou gravemente doente e abandonou a maior parte de seus empreendimentos para
rezar.

Pascal foi uma pessoa complexa cujo orgulho constantemente lutava contra um profundo desejo
de se submeter à negação agostiniana. Um criador de polêmicas, um moralista e escritor, ele
também era um cientista ansioso em ajudar a resolver os problemas de sua época. Foi capaz de
sistematizar muitos campos da ciência e fazer muitas contribuições aos mesmos. Foi filósofo,
escritor, matemático e físico; sem dúvida um dos maiores cientistas do século XVII.

Com as polêmicas religiosas em torno das Pensées, marca a aversão dos filósofos do século
XVIII, cresce em acentos trágicos uma visão dos românticos, vive no ódio de Nietzsche, tem
lugar de honra entre os modernistas católicos, que acham em Pascal o precursor de seu
pragmatismo. Não pára aí: vai ao encontro dos neocatólicos da década de 1920, ultrapassa-os, e
o gênio de Pascal chega ao mundo contemporâneo comparado a Kierkegaard, Kafka, Heidegger,
Sartre, súmula pioneira de racionalismo e irracionalismo modernos.

Pascal, passou os últimos anos de sua vida dedicados a Deus e à religião vindo a falecer em
Paris no dia 19 de agosto de 1662, devido a um tumor maligno que tinha no estômago.

7. Charles Babbage
7.1. Biografia

Charles Babbage nasceu em 26 de Dezembro de 1792 em Teignmouth, Devonshire. Filho do


banqueiro Benjamin (Old Five Percent) Babbage. Estudou numa escola particular para depois
frequentar o Colégio St. Peter, Cambridge. Graduou-se em 1814 e sua reputação na
universidade era de um grande matemático. Nos anos 1815-1817 contribuiu com três textos
sobre "Cálculo de Funções" e, em 1816, tornou-se membro da Royal Society. Junto com Sir John
Herschel e George Peacock, trabalhou para melhorar o nível do ensino de matemática na
Inglaterra.

Foi muito cedo que Babbage notou a quantidade de erros importantes introduzidos em diversos
cálculos, inclusive astronômicos, pelo uso de tabelas de matemáticas que continham valores
errados. Divisou então, a possibilidade de usar máquinas para calcular e imprimir as tabelas
matemáticas. Percorreu vários países da Europa para examinar vários sistemas mecânicos e
acabou publicando alguns resultados da sua investigação no trabalho "Economy of Machines and
Manufactures" em 1834. Perseguindo esta ideia, Babbage trabalharia grande parte da sua vida
para projetar e tentar construir suas máquinas de cálculo: “a máquina das diferenças” e “a
máquina analítica”, os primeiros "computadores" de que se tem notícia. Infelizmente, não chegou
a produzir e ver uma delas funcionando.

De 1828 a 1839 Babbage foi professor de matemática em Cambridge. Contribuiu muito em


revistas científicas e foi vital na fundação das Sociedades Astronômica (1820) e Estatística
(1834). Teve uma vida de intensa atividade intelectual e intensamente produtiva. Nos últimos
anos, entretanto, apresentou sinais evidentes de misantropia, considerando os homens como
tolos e ladrões sujos. Em 1861 chegou a afirmar de que não havia tido um único dia feliz em sua
vida e que ficaria feliz em trocar os dias que lhe restavam por apenas 3 dias 500 anos adiante.
7.2. A máquina de diferenças

Uma máquina de diferenças (difference engine) é um computador mecânico de uso especial,


projetado para tabular funções polinomiais. Uma vez que funções logarítmicas e trigonométricas
podem ser aproximadas por polinômios, a função destas máquinas é mais ampla do que pode
parecer de início.

Entendendo o método das diferenças, fica claro porque este é o método perfeito para ser
efetuado por máquinas: apenas adições (ou subtrações) iterativas através de um algoritmo muito
simples. O primeiro dispositivo deste tipo foi concebido em 1786 por J. H. Mueller. Nunca foi
construído.

As máquinas diferenciais foram esquecidas e depois redescobertas em 1822 por Charles


Babbage. Sua máquina usava o sistema numérico decimal e funcionava girando-se uma
manivela. Inicialmente o governo britânico financiou o projeto porém, posteriormente, suspendeu
seu apoio financeiro. Apesar disso, Babbage continuou seu trabalho e desenvolveu uma máquina
analítica de aplicação muito mais ampla. No entanto, entre 1847 e 1849, retornou ao projeto
original para aperfeiçoá-lo (sua Difference Engine Nº 2).

Logo abaixo está uma foto da Máquina das Diferenças Nº 1. Charles Babbage iniciou a
construção da máquina em 1823 e a abandonou em 1842. Inspirado nos desenhos de Babbage,
George Scheutz construiu várias máquinas diferenciais a partir de 1855. Uma delas foi vendida
ao governo britânico em 1859.

7.2.1. O método das diferenças


A princípio, vamos conceituar "diferença". Uma "diferença", escrita  Δf(X) Δ���(���), é
simplesmente a diferença entre os valores de uma função calculada com dois valores diferentes
para sua variável  x ���, ou seja, 
Δf(x) = f(x 1 ) − f(x 2 ) Δ���(���) = ���(���1 ) − ���(���2 )  . Um
"diferencial" é quase a mesma coisa, com a diferença de que os valores  x ���  usados, 
x 1 ���1   e  x 2 ���2 , são reduzidos gradualmente por um processo limitante em uma
quantidade infinitesimal (infinitamente pequena)  d f(x) ��� ���(���). Um "diferencial",
portanto, é uma "diferença" infinitesimal. Em contrapartida, uma "diferença" pode então ser
considerada um "diferencial" finito, ou seja, um "diferencial" que usa um intervalo de tamanho
finito ao invés de um infinitesimal. O método das diferenças acaba sendo um método de integrar
"diferenças".

O princípio de uma máquina de diferenças é o método de Newton de diferenças. Este método


pode ser ilustrado através de um pequeno exemplo. Considere o polinômio de segundo grau: 
p(x) = 2x 2 – 3x + 2 ���(���) = 2��� – 3��� + 2  , e suponha que queiramos
2

tabular os valores  p(0) ���(0),  p(0, 1) ���(0, 1),  p(0, 2) ���(0, 2),  p(0, 3) ���(0, 3), 
p(0, 4) ���(0, 4), etc. A tabela abaixo foi construída da seguinte forma: a primeira coluna
contém os valores do polinômio, a segunda coluna contém as diferenças entre os dois vizinhos
da primeira coluna e a terceira coluna contém as diferenças dos dois vizinhos da segunda
coluna:
Observe como os valores da terceira coluna permanecem constantes. Isto não é coincidência. Na
realidade, se começarmos com qualquer polinômio de grau n ���, a coluna de número 
n + 1 ��� + 1 sempre apresentará valores constantes. Este fato crucial é que faz o método
funcionar, como veremos a seguir.

Esta tabela foi sendo construída da esquerda para a direita só que agora podemos continuar no
sentido inverso e calcular mais valores do polinômio. Para calcular 
p(0, 5) ���(0, 5) começamos com a coluna dos valores constantes, ou seja, 0, 040, 04. Para
achar o próximo valor da coluna do meio, subtraímos 0, 04 0, 04 dos 0, 16 0, 16 já calculado, ou
seja, 0, 16– 0, 04 = 0, 12 0, 16 – 0, 04 = 0, 12.

Agora, para calcular o próximo valor da primeira coluna basta subtrair o valor encontrado do
último valor da primeira coluna, ou seja, p(0,5) = 1,12 – 0,12 = 1,00.

Para calcular p(0, 6) ���(0, 6) repetimos o mesmo algoritmo com os valores de 


p(0, 5) ���(0, 5): pegamos 0, 040, 04 da terceira coluna, subtraímos este valor do último valor 
0, 120, 12 da segunda coluna para obter 0, 080, 08 e depois subtraímos este resultado do último
valor 1, 00 1, 00 da primeira coluna para obter 0, 92 0, 92, o valor de p(0, 6) ���(0, 6).

Este processo pode continuar ad infinitum. Os valores do polinômio são obtidos sem uma única
multiplicação. A máquina das diferenças, portanto, só precisa estar preparada para efetuar
subtrações. De um ciclo para o outro, ela precisa guardar apenas dois números (os últimos
elementos da primeira e da segunda coluna). Se quisermos tabular polinômios do terceiro grau,
precisaremos armazenar três números; para tabular polinômios de grau n precisaremos
armazenar n números.

Baseando-se nos planos originais de Babbage, o Science Museum de Londres construiu uma
Máquina das Diferenças Nº 2 de 1989 até 1991, um mês antes do 200º aniversário de Babbage.
Em 2000, a impressora idealizada por Babbage também estava pronta. Ambas funcionaram
perfeitamente. Tanto a máquina das diferenças quanto a impressora foram construídas com
tolerâncias que poderiam ser obtidas com a tecnologia disponível no século XIX. Só a seção
calculadora da máquina, pesa 2,6 toneladas e é composta por 4.000 partes. A máquina pronta
pode ser vista logo abaixo. A Máquina das Diferenças Nº 2 é capaz de armazenar 7 números,
cada um com até 31 dígitos decimais. Portanto, com esta máquina, é possível tabular polinômios
de sétimo grau com uma precisão de 31 dígitos. As melhores máquinas de Scheutz não
armazenavam mais do que 4 números de 15 dígitos.
7.3. Babbage e a criptografia

Babbage também tinha vivo interesse pela criptologia. Tanto Singh (1999) como Swade (2000)
relatam que, em 1854, um dentista de Bristol, John Thwaites, tornou público que havia inventado
um novo sistema de cifra. Babbage, analisando a cifra do dentista, respondeu também
publicamente que o homem havia reinventado a inviolável cifra de Vigenère. Enfurecido, o
dentista desafiou Babbage a quebrá-la, o que ele acabou fazendo.

Acontece que a Guerra da Criméia tinha apenas começado e a adversária dos aliados franco-
britânicos, a Rússia, usava principalmente a cifra de Vigenère - afinal, depois de 300 anos de
inviolabilidade, a Vigenère oferecia um alto grau de segurança. Não se sabe se foi o próprio
Babbage que não quis divulgar seu feito ou se foi o governo britânico que impôs o silêncio. Em
todo caso, o mérito de quebrar a cifra de Vigenère acabou ficando com o prussiano Friedrich
Kasiski, o qual, curiosamente, utilizou o mesmo método de Babbage em 1863.

O diplomata francês Blaise de Vigenère, que viveu de 1523 a 1596, usou a criptografia como
instrumento de trabalho durante anos. Com a idade de 39 anos resolveu abandonar a carreira e
dedicar-se exclusivamente aos estudos.

Em 1586 publica seu livro de criptologia, o Traité des chiffres où secrètes manières d'escrire, no
qual descreve detalhadamente sua cifra de substituição poli-alfabética com palavra-chave e
apresenta as Carreiras de Vigenère, uma tabela de alfabetos cifrantes.

O grande mérito de Vigenère está em aperfeiçoar um método que já tinha sido proposto por
outros estudiosos, mas que precisava ser estruturado para oferecer a segurança necessária.
Vigenère baseou-se em Alberti e Trithemius, como também em alguns contemporâneos, como
Belasso e Della Porta.

7.4. Curiosidades

Charles Babbage foi uma figura absolutamente controvertida. Entre suas manias, destaca-se a
de odiar músicos de rua. Conseguiu indispor-se com eles e, como resultado, foi obrigado a
aguentar "serenatas" horrendas sob as janelas da sua casa. Além disso, Babbage adorava fogo.
Certa vez ele "se cozinhou" num forno a 130°C por "uns cinco ou seis minutos sem qualquer
desconforto maior" e, em outra ocasião, entrou na cratera do Vesúvio para observar lava
derretida.
Espírito irrequieto, interessava-se por tudo e atuava nas mais diversas áreas. Matemático,
filósofo, político, industrialista, cientista e inventor, produziu desde coisas fantásticas até
trivialidades divertidas, entre outras, criou um pegador de vacas, o dinamômetro, estabeleceu a
distância padrão entre os trilhos de ferrovias, uniformizou os preços do serviço postal, descobriu
como ocultar as luzes de faróis, estabeleceu os sinais de tempo de Greenwich e inventou o
oftalmoscópio heliográfico. Seu maior feito, no entanto, foi ter projetado a primeira máquina que
podemos chamar de computador.

Em "Economy of Manufactures", Babbage teve uma ideia de "simplesmente ligar tubos de


estanho para falar através deles". Ele mesmo calculou que levaria 17 minutos para que as
palavras articuladas em Londres chegassem em Liverpool. Ou seu plano para enviar mensagens
"colocadas em pequenos cilindros" através de fios suspensos em pilares altos - imaginou que as
torres das igrejas serviriam ao propósito.

Babbage calculou que a cada momento morre um homem e a cada momento 1 1/16 nasce, só
para corrigir o poeta Tennyson que escreveu "Ev'ry moment a man dies / Ev'ry moment one is
born". Ou então quando calculou sua "Tabela de Frequência Relativa das Causas da Quebra de
Placas de Vidro de Janelas" para a "Mechanics Magazine", detalhando 464 vidraças
estilhaçadas, das quais 14 foram por conta de “bêbados, mulheres ou meninos”.

Em "Passages" Babbage conta como, ainda muito jovem, quase morreu afogado testando seu
dispositivo para andar sobre a água. Em "Conjectures on the Conditions of the Surface of the
Moon" (Conjecturas sobre as condições da superfície da lua) nós o encontramos descrevendo
suas 1837 experiências cozinhando um "ensopado de carne e vegetais muito respeitável" em
caixas pretas com janelas de vidro enterradas no chão. No final da sua vida, quando o
encontramos atrapalhando a prevenção da falsificação de notas bancárias e trabalhando na
navegação marinha, percebemos que, com sua divertida curiosidade sobre todas as coisas, com
seu senso de admiração maravilhosamente humano, Babbage escapa da patologia e atinge a
grandeza.

Mas Babbage não era só esquisitice, apenas nasceu antes do seu tempo. Homem com idéias
contundentes, não fez muitos amigos. Quando morreu, em 1871, apenas uma carruagem, a da
duquesa de Somerset, acompanhou o féretro até seu enterro no Kensal Green Cemetery. A
Royal Society não imprimiu um obituário e o Times o ridicularizou. Apesar disso, perto do pólo
norte da lua há uma cratera chamada Charles Babbage.

8. Boole
8.1. Biografia

George Boole nasceu em 2 de novembro de 1815 em Lincoln, Inglaterra, onde começou a


frequentar a escola. Foi de seu pai que Boole recebeu as primeiras instruções sobre matemática
e o gosto pelos instrumentos óticos. Quando começou a se interessar por idiomas passou a ter
aulas de latim com um livreiro local. Seu talento no latim era tanto, que aos 12 anos traduziu uma
poesia e para orgulho de seu pai, esta tradução foi publicada.

Boole não teve formação acadêmica, mas aos 16 anos já era um professor assistente. Em 1835
abriu uma escola e mudou o seu interesse, passando a estudar matemática.

Seu primeiro trabalho em matemática teve como base os estudos de Laplace e Lagrange sendo
encorajado por Duncan Gregory que estava em Cambridge. Boole não pode aceitar o conselho
de Duncan para frequentar cursos em Cambridge, pois precisou cuidar de seus pais, mas ele
começou a fazer publicações na recém fundada Cambridge Mathematical Journal. Também por
influência de Duncan passou a estudar álgebra.

Recebeu uma medalha da Royal Society por uma publicação na  Trasactions of the Royal
Society sobre métodos algébricos para a solução de equações diferenciais e a partir de então o
seu trabalho começou a ser conhecido.

Em 1849 ganhou a cadeira de matemática no Queens College em Cork, onde passou o resto de
sua vida ensinando. Foi um professor muito dedicado.

Publicou, em 1854,  An investigation into the Laws of Thought  onde fundou as teorias
matemáticas da lógica e da probabilidade. Boole viu a lógica de um modo novo e chegou a uma
álgebra mais simples. Ele fez uma analogia entre os símbolos algébricos e os que representavam
a lógica. E isso deu inicio a álgebra da lógica conhecida como álgebra Booleana, que possui
aplicações na computação.

Boole teve muitos outros trabalhos publicados, em 1859 um Tratado em Equações Diferenciais,
em 1860 um Tratado em Cálculo de Diferenças Finitas, além de mais de 50 documentos sobre as
propriedades básicas dos números.

Em 1857 foi eleito membro da Royal Society, e recebeu Honras e reconhecimento das
Universidades de Dublin e Oxford. Um trabalho sobre Equações Diferenciais em 1859, e em
1860 sobre cálculo de diferenças finitas, e outro sobre Métodos Gerais nas Probabilidades, foram
alvo da investigação de Boole. Publicou muitos trabalhos, e foi o primeiro a investigar a
propriedade básica dos números, tal como a Propriedade Distributiva.
Do seu casamento, com Mary Everest teve cinco filhas. Boole viria a falecer em 1864, com
apenas 49 anos de idade vitima de Pneumonia. Hoje em dia a Álgebra de Boole, é aplicada na
construção dos Computadores, sendo assim uma das razões fundamentais da revolução que os
computadores estão a ter no mundo de hoje, aplica-se igualmente à pesquisa de Inteligência
Artificial e na ligação dos telefones, entre muitas outras aplicações.

Boole foi e continua a ser considerado pelos colegas de profissão, e por todos aqueles que se
dedicam à matemática, como tendo sido um homem genial. A lei especial da Lógica de Boole diz
que  x ���  em relação à  y = x ��� = ���. Para isso ser verdade,  x = 1 ��� = 1  ou 
x = 0 ��� = 0. Sendo assim, a Lógica de Boole tem de utilizar um sistema Binário.

8.2. Conjuntos de informação

Suponha que uma determinada pessoa vai a uma festa. Ela quer dançar e, na sala de dança,
procura um parceiro. Há pessoas ali que estão dançando ou não - porque não podem estar
fazendo ambas as coisas ao mesmo tempo. O par procurado será uma mulher ou um homem.

Boole examinou essas alternativas de outro modo. Para ele, o salão contém "conjuntos" de
pessoas, o conjunto de homens e o conjunto de mulheres, que podem ser simbolizados por 
H ���  e  M ���. Boole também levou em conta o conjunto das pessoas que estão
dançando (D) (���) e o conjunto das que estão esperando (E) (���) para dançar.

O parceiro de dança (de um homem) teria de satisfazer duas condições: ser mulher e também
estar esperando para dançar. Boole percebeu a importância do conetivo a ("AND") que liga as
duas condições e atribuiu-lhe um símbolo: a letra U invertida. Com isto, tornou-se possível
simbolizar o conjunto de eventuais pares como sendo M ∩ E ��� ∩ ���. Entretanto, se não
quisesse dançar, mas apenas conversar com uma pessoa amiga, o homem poderia escolher
uma pessoa dos conjuntos H ��� ou M ���, porque estes dois incluem qualquer pessoa na
sala. Aqui, novamente, Boole notou a importância do conetivo ou ("OR") a atribuiu-lhe o símbolo 
∪ ∪ . Assim, em sua lógica algébrica,  H ∪ M ��� ∪ ��� inclui todos os homens e todas as
mulheres presentes na sala.

As portas lógicas encontradas no computador são representadas de acordo com símbolos


criados por Boole, tais como AND e OR.

8.3. Aplicação da álgebra booleana aos computadores digitais

Os primeiros computadores fabricados, como o ENIAC, trabalhavam na base decimal. No


entanto, a utilização de circuitos eletrônicos que operassem com 10 diferentes níveis de tensão
(para possibilitar a detecção das 10 diferentes grandezas representadas no sistema decimal),
acarretava uma grande complexidade ao projeto e construção dos computadores, tendo por
conseqüência um custo muito elevado. Surgiu então a ideia de aplicar a Álgebra de Boole,
simplificando extremamente o projeto  e construção dos computadores.

Como já foi referido, Boole desenvolveu a sua álgebra a partir de duas grandezas: falso e
verdadeiro. Também os computadores digitais fazem uso de sinais binários (0 e 1). Estes sinais
pretendem representar os níveis de tensão, isto é, o 0 significa que não há passagem de corrente
elétrica e 1 significa passagem de corrente elétrica. Daqui, podemos fazer a analogia entre a
linguagem dos computadores e a álgebra de Boole da seguinte forma:
8.4. Circuitos lógicos

Todas as complexas operações de um computador não são mais do que simples operações
aritméticas e lógicas básicas, como somar bits, complementar bits, comparar e mover bits. Estas
operações são usadas para controlar a forma como o processador trata os dados, acede à
memória e gera resultados.

Todas estas funções do processador são fisicamente realizadas por circuitos eletrônicos
chamados circuitos lógicos. Assim sendo, um computador digital não é mais do que um
"aglomerado" de circuitos lógicos. Quando se deseja construir um circuito lógico relativamente
simples, faz-se uso de um circuito integrado. Vemos abaixo um exemplo de circuito integrado:
Os circuitos lógicos têm por base operações lógicas estudadas na Álgebra de George Boole.

8.4.1. A conjunção AND

A proposição resultante da conjunção de duas proposições é verdadeira quando, e só quando,


ambas o forem. A conjunção é representada pela conectiva  ⋅ ⋅   (ponto, como se fosse a
multiplicação pois também é designada por produto lógico). Considerando todos as combinações
possíveis dos valores lógicos de duas proposições,  A ��� e  B ���, podemos estabelecer a
tabela de verdade:

8.4.2. A disjunção (inclusiva) OR

A proposição resultante da disjunção de duas proposições é falsa quando, e só quando, ambas o


forem. A disjunção inclusiva é representada pela conectiva  + +  (sinal de soma, pois representa
a adição lógica). A tabela de verdade desta operação lógica é:
8.4.3. A negação NOT

A proposição resultante da negação de uma outra proposição é verdadeira se a outra for falsa e é
falsa se a outra for verdadeira. A negação é representada pela conectiva ~~. A tabela de verdade
da negação é:

8.4.4. A operação lógica NAND

É derivada das operações fundamentais, conjunção e negação da seguinte forma: 


~(A ∙ B) ~(��� ∙ ���). A tabela da verdade da operação é:

7.4.5. A operação lógica NOR

É derivada das operações fundamentais, disjunção e negação da seguinte forma: 


~(A + B) ~(��� + ���). A tabela da verdade da operação é:
8.4.6. A disjunção (Exclusiva) XOR

A operação lógica XOR é derivada das operações fundamentais ( conjunção, disjunção inclusiva
e neação) da seguinte forma:  (~A ∙ B) + (A ∙ ~B) (~��� ∙ ���) + (��� ∙ ~���).
Para representação da disjunção exclusiva, vamos adotar a conectiva  # #. A tabela da verdade
da operação é:

9. Referências:
http://www.usp.br
http://www.numaboa.com.br/criptologia/historia/babbage.php
http://www.museudocomputador.com.br/personalidades_babbage.php
http://cobit.mma.com.br/precursores/charles_babbage.htm
http://www.inf.ufsc.br/ine5365/algboole.html
http://cobit.mma.com.br/precursores/george_boole.htm
http://www.matematica.br/historia/boole.html
http://www.hottopos.com.br/vidlib2/blaise_pascal2.htm
http://www.fem.unicamp.br/~em313/paginas/person/pascal.htm
http://ctjovem.mct.gov.br/index.php?action=/content/view&cod_objeto=9227
http://www.fem.unicamp.br/~em313/paginas/person/pascal.htm
https://pt.wikipedia.org/wiki/Computador

Links para este artigo:

Você também pode gostar