Você está na página 1de 3

"Todos os alunos das universidades deveriam aprender uma introduo Cincia da Computao" Daltro Jos Nunes professor titular

ar do Instituto de Informtica da Universidade Fede ral do Rio Grande do Sul (UFRGS). Artigo enviado pelo autor ao "JC e-mail":

Computao e informtica so termos que tem causado alguma confuso. Nos pases de lngua ing esa usa-se a palavra computao (do latim computare) e nos demais pases, normalmente, usa-se a palavra informtica, de origem francesa (informatique). Entretanto, o significado das palavras o mesmo. Computao para os americanos, por e xemplo, tem o mesmo significado que informtica para os alemes. Atualmente, tem-se usado tambm a expresso Tecnologia da Informao. J palavra computador correspondem dife rentes termos, conforme a lngua: nos Estados Unidos, computer; na Alemanha, rechn er (mesma palavra para calculadora); e na Frana, ordinateur (ordenador). Do ponto de vista cientifico, os americanos chamam a cincia que aborda os algoritmos de " Computer Science (1)" (Cincia do Computador), que foi traduzida para o portugus co mo Cincia da Computao. No Brasil, a partir da dcada de 60, o termo passou de processamento eletrnico de d ados para informtica e computao. Mas, com o passar do tempo, ao invs do pas adotar um a das duas palavras, passou a usar ambas, com significados diferentes.

A palavra informtica usada em referncia ao processo de aplicao das tecnologias de co mputao aos processos de automao. Assim, frequente dizer-se que uma organizao est sen informatizada, significando que seus processos (manuais) esto sendo automatizados com a introduo de computadores, redes, banco de dados, softwares etc. Seria estra nho dizer que a organizao est sendo computadorizada. Por outro lado, pode-se dizer que uma funo (matemtica) est sendo computada e estranh o dizer que a funo est sendo informatizada. Da mesma forma, usa-se o termo tomografia computadorizada para referir-se ao pro cesso computacional e seria estranho chamar este processo de tomografia informat izada. Assim, a funo do computador a de "computar" termos, no importando seu tipo: nmeros, textos, imagens, sons etc. A computao de termos, como dados de entrada, fornece te rmos, como dados de sada. O conceito de Tecnologia da Informao, abrangendo as aplic aes e os recursos da computao, se aproxima muito do conceito brasileiro de Informtica . A falta de uma semntica correta para os termos computao e informtica tem refletido t ambm nas universidades. Algumas criaram os Institutos de Computao (por exemplo, Uni camp, UFF e Ufal) e outras os Institutos de Informtica (por exemplo, UFRGS e UFG) , mas com as mesmas finalidades: o ensino, a pesquisa e a extenso em Cincia da Com putao e suas aplicaes. A computao, como cincia, pode ser considerada nova ou uma das mais antigas do mundo , dependendo do ponto de vista. A humanidade sempre se preocupou com a construo de mquinas para calcular, principalmente, operaes aritmticas. Aproximadamente no ano 1 00 d. C., Hero de Alexandria descreveu suas ideias de vincular rodas dentadas de maneira a realizar a operao de "vai um" e de usar cilindros rotatrios, com pinos e cordas, para controlar seqncias de aes.

Ao longo da historia vrias mquinas foram construdas com o objetivo de realizar oper aes matemticas. Um dos primeiros computadores de propsito geral completamente eletrni co, o Eniac, foi construdo em 1945, na Universidade de Pensilvnia. Mas, se conside rarmos que a Cincia da Computao comeou com a descrio (matemtica) de como as mquinas f ionam, ento, a Cincia da Computao comeou em torno de 1936, com Alan Mathison Turing q uando descreveu, logicamente, como sua mquina, a mquina de Turing, funciona.

Os dados so colocados na memria da mquina para serem computados. A mquina de Turing uma mquina abstrata, pois abstrai aspectos fsicos (eltricos, mecnicos etc.) de como ela construda. Ou seja, ela independe dos materiais de como implementada. At hoje no foi definida uma mquina mais poderosa que a mquina de Turing (uma mquina que, mat ematicamente, pode provar que tem a capacidade de resolver problemas que a mquina de Turing no resolve). Em 1944, John von Neumann desenvolveu o conceito de "programa armazenado" que fo i usado no computador EDVAC - um dos primeiros computadores binrios - construdo em 1951. Programa e dados so colocados na memria da mquina (o leitor convidado, aqui, a usar um navegador - Google, por exemplo - e buscar informaes sobre Alan Turing e John von Neumann). A arquitetura de Von Neuman, apesar de constituir a organizao moderna dos computad ores, corresponde mquina de Turing, abstraindo-se os aspectos eltricos. A partir d a mquina de Turing, mquinas mais abstratas ainda, como Fortran, Prolog, Pascal, Ja va, Haskell, ML, C etc. foram construdas. Entretanto, todos os programas escritos para estas mquinas so decompostos em programas para a mquina de Turing. Portanto, todas essas mquinas no diferem das mquinas de Turing. No final, quem executa o programa uma mquina no mximo equivalente de Turing, imple mentada, atualmente, com tecnologia de semi-condutores (mas existem promessas qu e outras tecnologias, como quntica, nanotecnologia, ptica etc., possam, no futuro, implementar tambm a mquina de Turing). Algoritmos

Um algoritmo uma descrio precisa, passo a passo, da soluo de um problema. Muitos pro blemas no tm uma soluo algortmica (computacional). A teoria da computao estuda os limi es da computao (2). Um professor de Letras que estudava "Os Lusadas" suspeitou que certas repeties perc orriam todo o livro (como ondas). Construiu ento um procedimento (processo) atravs da numerao das palavras. Observou que, quando um certo nmero de palavras ou um det erminado assunto surgia, uma determinada palavra com certa tonicidade se repetia . Considerando o nmero de combinaes, e o volume do livro, o professor estava prestes a desistir de investigar o fenmeno, quando comentou com um profissional de comput ao. O profissional reconheceu tratar-se de um problema de computao que poderia ser r esolvido atravs do computador. Encurtando a historia, o profissional traduziu o p rocedimento em um programa de computador, digitou o livro e aplicou o programa s obre o texto do livro. Esta histria revela um fato interessante. Certamente existem inmeros problemas das reas das cincias exatas, humanas, das artes e da realidade cotidiana que poderiam ser resolvidos com o auxlio da rea de computao. Conclui-se que todos os alunos das universidades deveriam aprender uma introduo Cin cia da Computao, que os capacitasse a identificar os problemas da rea que poderiam ser solucionados por mtodos desenvolvidos pela computao, bem como a descrever as so lues, usando uma linguagem cientfica apropriada e simples. Noes como as de Algoritmos, Complexidade Computacional, Organizao de Computadores, L inguagens de Programao, Redes de Computadores, Banco de Dados, Sistemas Operaciona is so fundamentais para que os futuros socilogos, economistas, msicos possam intera gir com profissionais de computao, desenvolvendo um pensamento interdisciplinar (3 ) alm de, como cidados, adquirir conhecimentos sobre este importante e novo ramo d a cincia.

Ao contrrio, o ensino de aplicativos/ferramentas como Word, Excel, Access, CAD/CA M, incluindo linguagens de programao como Java, C etc. no deve fazer parte do progr ama regular das universidades. Essas ferramentas podem ser trabalhadas atravs, po r exemplo, de cursos de extenso. Ferramentas como essas no so necessrias para aprend er cincias. Assim como, por exemplo, para aprender portugus, no necessrio aprender datilografia ou o programa Word; ou para aprender matemtica, no necessrio o uso de calculadoras ou o programa Excel. No futuro, quando a cincia da computao for efetivamente introduzida na educao bsica, o s alunos vo chegar universidade com esses conhecimentos. Os cursos de Licenciatur a em Computao tm uma enorme responsabilidade de formar professores para introduzir cincia da computao na educao bsica e disseminar o chamado "pensamento computacional (3 )". (1) Embora a terminologia Computing Science seja amplamente utilizada no Reino U nido, Canad e vrias universidades norte-americanas. (2) H. David. Computers Ltd. What they really cant do. Oxford University Press In c. New York. 2000. (3) Wing J.M. Computational Thinking. COMMUNICATIONS OF THE ACM. March 2006/Vol. 49, No. 13