Você está na página 1de 16

INTRODUÇÃO A INFORMATICA

Do mesmo modo como a educação no Brasil, a informática na educação brasileira


também recebeu influência da educação de outras culturas. Na década de 80, liderado
por Papert, chegou ao nosso país o movimento que denominou-se de Filosofia e
Linguagem LOGO. Por meio desse movimento Papert divulgou idéias que defendiam
que o computador é um instrumento que catalisa conceitos complexos, permitindo assim
que o aluno trabalhe estes conceitos de maneira simples e lúdica. A partir desse
entendimento desenvolveu-se uma linguagem de programação para crianças.

Dentre os inúmeros movimentos que surgiram na informática educativa, um deles se


destacava por defender o ensino do computador como instrumento, ou seja, focava-se
no ensino e aprendizado da computação. Sob essa perspectiva, uma vez o contexto
social necessitava de profissionais com conhecimentos de informática, era preciso que
as instituições de ensino formal se preocupassem em ensinar esse instrumento (focando-
se no equipamento e no uso dos softwares de mercado – processadores de texto,
planilhas eletrônicas, navegadores, etc.).

Além de o computador ser utilizado para ensinar sobre computação, é também utilizado
para ensinar praticamente qualquer assunto. No ensino de informática o computador é
usado como objeto de estudo, em que o aluno o utiliza para adquirir conceitos teórico-
práticos sobre informática, como princípios de funcionamento do computador, softwares
disponíveis, noções de programação e implicações sociais do computador na sociedade.

A inserção do computador na educação gerou e ainda tem gerado uma espécie de


revolução nas teorias sobre a relação ensino-aprendizagem existentes anteriormente,
sobretudo por dois motivos principais:

1. Computadores podem ser utilizados para ensinar, funcionando como tutores


eletrônicos. A diversidade de softwares educacionais produzidos e as várias
modalidades de utilização do computador levam a concluir que trata-se de uma
tecnologia extremamente útil no processo de ensino-aprendizagem.

2. A análise de softwares educacionais demonstra que eles podem ser utilizados como
versões computadorizadas das metodologias de ensino presencial. Por meio da história
do desenvolvimento de softwares educacionais percebe-se que os primeiros programas
implementados eram versões computadorizadas daquilo que acontecia na sala de aula
presencial, porém isso é um processo natural que ocorre com a inserção de qualquer
nova tecnologia na sociedade.

Para efetivar o processo de incorporação do computador como mídia na educação são


necessários basicamente quatro elementos fundamentais: o próprio computador, os
softwares educativos, o professor preparado para utilizar-se do computador como mídia
educativa e o aluno motivado para uma nova forma de aprender.
Informática é um termo usado para descrever o conjunto das ciências da informação,
estando incluídas neste grupo: a ciência da computação, a teoria da informação, o
processo de cálculo, a análise numérica e os métodos teóricos da representação dos
conhecimentos e da modelagem dos problemas.

O termo informática, sendo dicionarizado com o mesmo significado amplo nos dois
lados do Atlântico, assume em Portugal o sentido sinônimo da ciência da computação,
enquanto que no Brasil é habitualmente usado para rever especificamente o processo de
tratamento da informação por meio de maquinas eletrônicas definidas como
computadores.

O estudo da informação começou na matemática quando nomes como Alan Turing,


Kurt Gödel, AlonzoChurch e Pitágoras, começaram a estudar que tipos de problemas
poderiam ser resolvidos, ou computados, por elementos humanos que seguissem uma
série de instruções simples de forma, independente do tempo requerido para isso. A
motivação por trás destas pesquisas era o avanço durante a revolução industrial e da
promessa que máquinas poderiam futuramente conseguir resolver os mesmos problemas
de forma mais rápida e mais eficaz. Do mesmo jeito que as indústrias manuseiam
matéria-prima para transformá-la em um produto final, os algoritmos foram desenhados
para que um dia uma máquina pudesse tratar informações. Assim nasceu a informática.

Etimologia[editar | editar código-fonte]


A palavra surge, em meados do século XX, da junção de parte de duas outras palavras,
processamento da informação por meios automáticos analógicos ou digitais (quer sejam
binários ou não, como "qubit" ou bit quântico). O meio mais comum da utilização de
informática são os computadores que tratam informações de maneira automática.

A informática é a disciplina que lida com o tratamento racional e sistemático da


informação por meios automáticos e eletrônicos. Representa o tratamento automático da
informação. Constitui o emprego da ciência da informação através do computador.
Embora não se deva confundir informática com computadores, na verdade ela existe por
que estes existem.1

Origem e concepção[editar | editar código-fonte]


Em 1956, o cientista da computação alemão Karlput publicou em um jornal um
periódico chamado Informatik: AutomatischeInformationsverarbeitung ("Informática:
processamento automático de informação"),2 a palavra se estabeleceu como o termo
alemão para a ciência da computação, uma disciplina progenitora para o campo mais
vasto da informática.3

Em 1966, o pesquisador russo AlexanderMikhailov, junto com colaboradores, chegou a


utilizar o conceito "Informatika" relacionado a uma disciplina que estuda, organiza e
dissemina a informação científica (ligada a Ciência da Informação). Entretanto, essa
definição ficou restrita a antiga União Soviética e aos países do Bloco comunista.45
A palavra portuguesa é derivada do francêsinformatique, vocábulo criado por Philippe
Dreyfus, em 1962, a partir do radical do verbo francês informer, por analogia com
mathématique, électronique, etc.

Em português, a palavra informática é formada pela junção das palavras informação +


automática. Pode dizer-se que informática é a informatica que estuda o processamento
automático de informações por meio do computador.

Há uma linha de pensamento que conduz o termo "informática" à junção dos conceitos
"informação" e "matemática".

Informação é o resultado do processamento, manipulação e organização de dados, de


tal forma que represente uma modificação (quantitativa ou qualitativa) no conhecimento
do sistema (pessoa, animal ou máquina) que a recebe. 1

Informação enquanto conceito carrega uma diversidade de significados, do uso


quotidiano ao técnico. Genericamente, o conceito de informação está intimamente
ligado às noções de restrição, comunicação, controle, dados, forma, instrução,
conhecimento, significado, estímulo, padrão, percepção e representação de
conhecimento.

É comum nos dias de hoje ouvir-se falar sobre a Era da Informação, o advento da "Era
do Conhecimento" ou sociedade do conhecimento. Como a sociedade da informação, a
tecnologia da informação, a ciência da informação e a ciência da computação em
informática são assuntos e ciências recorrentes na atualidade, a palavra "informação" é
frequentemente utilizada sem muita consideração pelos vários significados que adquiriu
ao longo do tempo.

Etimologia[editar | editar código-fonte]


De acordo com o Dicionário Contemporâneo da Língua Portuguesa, informação vem do
latiminformatio,onis, ("delinear, conceber ideia"), ou seja, dar forma ou moldar na
mente, como em educação, instrução ou treinamento.

A palavra do grego antigo para forma era μορφή (morphe; cf. morfo) e também εἶδος
(eidos) "tipo, ideia, forma, 'aquilo que se vê', configuração", a última palavra foi usada
famosamente em um sentido filosófico técnico por Platão (e mais tarde Aristóteles) para
denotar a identidade ideal ou essência de algo (ver Teoria das ideias).

Informação como mensagem[editar | editar código-


fonte]
R. A. Fischer

Informação é o estado de um sistema de interesse (curiosidade). Mensagem é a


informação materializada.

Informação é a qualidade da mensagem que um emissor envia para um ou mais


receptores. Informação é sempre sobre alguma coisa (tamanho de um parâmetro,
ocorrência de um evento etc.). Vista desta maneira, a informação não tem de ser precisa.
Ela pode ser verdadeira ou mentirosa, ou apenas um som (como o de um beijo). Mesmo
um ruído inoportuno feito para inibir o fluxo de comunicação e criar equívoco, seria,
sob esse ângulo, uma forma de informação. Um ruído é usado na teoria da comunicação
para se referir a qualquer coisa que interfira na comunicação. 2 Todavia, em termos
gerais, quanto maior a quantidade de informação na mensagem recebida, mais precisa
ela é.

Este modelo assume que há um emissor definido e ao menos um receptor. Refinamentos


do modelo assumem a existência de uma linguagem comum entendida pelo emissor e ao
menos por um dos receptores. Uma variação importante identifica a informação como
algo que pode ser comunicado por uma mensagem do emissor para um receptor capaz
de compreender a mensagem. Todavia, ao exigir a existência de um emissor definido, o
modelo da informação como mensagem não acrescenta qualquer significado à ideia de
que a informação é algo que pode ser extraída de um ambiente, por exemplo, através de
observação, leitura ou medição.

Informação é um termo com muitos significados dependendo do contexto, mas como


regra é relacionada de perto com conceitos tais como significado, conhecimento,
instrução, comunicação, representação e estímulo mental. Declarado simplesmente,
informação é uma mensagem recebida e entendida. Em termos de dados, podem ser
definida como uma coleção de factos dos quais conclusões podem ser extraídas.
Existem muitos outros aspectos da informação visto que ela é o conhecimento adquirido
através do estudo, experiência ou instrução. Mas, acima de tudo, informação é o
resultado do processamento, manipulação e organização de dados numa forma que se
some ao conhecimento da pessoa que o recebe. A teoria da comunicação analisa a
medida numérica da incerteza de um resultado. A teoria da comunicação tende a usar o
conceito de entropia da informação, geralmente atribuído a Claude Shannon.3 Outra
forma de informação é a informação Fisher, um conceito de R.A. Fisher.

Mesmo que informação e dados sejam freqüentemente usados como sinônimos, eles
realmente são coisas muito diferentes. Dados representam um conjunto de fatos não
associados e como tal, não têm utilidade até que tenham sido apropriadamente
avaliados. Pela avaliação, uma vez que haja alguma relação significativa entre os dados
e estes possam mostrar alguma relevância, são então convertidos em informação. Agora,
estes mesmos dados podem ser usados com diferentes propósitos. Assim, até que os
dados expressem alguma informação, não são úteis.

Medindo a entropia da informação[editar | editar código-fonte]

A visão da informação como mensagem entrou em destaque com a publicação em 1948


de uma influente dissertação de Claude Shannon, A MathematicalTheoryof
Communication.3 Esta dissertação fornece as fundações da teoria da informação e dota a
palavra informação não somente de significado técnico mas também de medida. 4 Se o
dispositivo emissor é igualmente capaz de enviar qualquer um dentre um conjunto de
mensagens, então a medida preferida da "informação produzida quando uma mensagem
é escolhida do conjunto" é o logaritmo da base dois de (esta medida é chamada auto-
informação). Neste artigo, Shannon prossegue:

A escolha de uma base logarítmica corresponde a escolha de uma unidade para


“ medir a informação. Se a base 2 é usada, as unidades resultantes podem ser
chamadas dígitos binários, ou mais resumidamente, bits, uma palavra sugerida por
J. W. Tukey. Um dispositivo com duas posições estáveis, tais como um relé ou um
circuito flip-flop, pode armazenar um bit de informação. N de tais dispositivos
podem armazenar N bits…5 ”
Um meio complementar de medir informação é fornecido pela teoria algorítmica da
informação. Em resumo, ela mede o conteúdo de informação duma lista de símbolos
baseando-se em quão previsíveis eles são, ou, mais especificamente, quão fácil é
computar a lista através de um programa de computador: o conteúdo de informação de
uma seqüência é o número de bits do menor programa capaz de computá-lo. A
seqüência abaixo deveria ter uma medida de informação algorítmica muito baixa dado
que é um padrão perfeitamente previsível e a medida que o padrão continua, a medida
não deveria alterar-se. A informação de Shannon deveria retornar a mesma medida de
informação para cada símbolo, visto que são estatisticamente aleatórios, e cada novo
símbolo incrementaria a medida:

123456789101112131415161718192021

É importante reconhecer as limitações da teoria de informação tradicional e da teoria


algorítmica de informação da perspectiva do significado humana. Por exemplo, ao
referir-se ao conteúdo significante de uma mensagem, Shannon observou:
"freqüentemente, mensagens possuem significado; estes aspectos semânticos da
comunicação são irrelevantes para o problema de engenharia. O aspecto significativo é
que a mensagem real é uma selecionadade um conjunto de mensagens possíveis" (grifo
no original).

Michael Reddy observou que "'sinais' da teoria matemática são 'padrões que podem ser
trocados'. Não há mensagem contida no sinal, os sinais expressam a capacidade de
escolher dentre um conjunto de mensagens possíveis." Em teoria da informação, "o
sistema deve ser projetado para operar com qualquer seleção possível, não apenas com
aquela que será realmente escolhida, visto que esta é desconhecida ao tempo do
projeto".6

Informação como padrão[editar | editar código-fonte]

Imagem de uma zebra construída em ASCII, sistema utilizado para codificar informações em
computadores.

Informação é qualquer padrão representado. Esta visão não assume nem exatidão nem
partes que se comuniquem diretamente, mas em vez disso, assume uma separação entre
o obje(c)to e sua representação, bem como o envolvimento de alguém capaz de entender
este relacionamento. Logo, este ponto de vista parece exigir uma mente consciente.
Considere-se o seguinte exemplo: a estatística econômica representa uma economia,
todavia de forma não precisa. O que é geralmente denominado como dados em
computação, estatística e outros campos, são formas de informação neste sentido. Os
padrões eletromagnéticos numa rede de computadores e dispositivos periféricos estão
relacionados a algo além do padrão em si mesmo, tais como caracteres de texto para
serem exibidos e entradas de teclado. Sinais, signos e símbolos estão também nesta
categoria.7 Por outro lado, de acordo com a semiótica, dados são símbolos com uma
sintaxe determinada e informação são dados com uma determinada semântica. Pintura e
desenhocontém informação ao nível em que representam algo tal como uma miscelânea
de objetos sobre uma mesa, um retrato ou uma paisagem. Em outras palavras, quando
um padrão de alguma coisa é transposta para o padrão de alguma outra coisa, o último é
a informação. Este tipo de informação ainda assume algum envolvimento da mente
consciente, seja da entidade construindo a representação, ou da entidade que a
interpreta.

Informação e Semiótica[editar | editar código-fonte]


Beynon-Davies89 explica o conceito multi-facetado de informação em termos de sinais e
de sistemas de signos-sinais. Os signos em si, podem ser considerados em termos de
quatro níveis inter-dependentes, camadas ou ramos da semiótica: pragmática, semântica,
sintaxe e empirismo. Estas quatro camadas servem para conectar o mundo social, por
um lado com o mundo físico ou técnico, por outro lado ...

Pragmática está preocupada com o propósito de comunicação. A pragmáticas relaciona a


questão dos sinais com o contexto no qual os sinais são usados. O foco da pragmática é
sobre as intenções dos agentes reais subjacentes ao comportamento comunicativo. 10 Em
outras palavras, a pragmática estabelece uma ligação do idioma com a ação.

Semântica se preocupa com o significado de uma mensagem transmitida em um ato


comunicativo. A semântica considera o conteúdo da comunicação. A semântica é o
estudo do significado dos sinais - a associação entre sinais e comportamento. A
semântica pode ser considerada como o estudo da relação entre símbolos e seus
referentes ou conceitos, particularmente a forma como os sinais se relacionam com o
comportamento humano.11

Sintaxe está preocupada com o formalismo utilizado para representar uma mensagem. A
sintaxe como uma área estuda a forma de comunicação em termos de lógica e gramática
dos sistemas de signos. A sintaxe é dedicada ao estudo da forma e não ao conteúdo de
sinais e sistemas de signos.

Outras visões da informação[editar | editar código-


fonte]
Informação como estímulo sensorial[editar | editar código-fonte]

Frequentemente, a informação é vista como um tipo de estímulo a um organismo ou a


um determinado dispositivo. Neste sentido, a informação é um conhecimento inscrito ou
gravado sob uma forma escrita, oral ou audiovisual. A informação comporta então um
elemento de sentido, sendo um significado transmitido a um ser consciente por meio de
uma mensagem veiculada em um meio que pode ser impresso, um sinal elétrico, uma
onda sonora, etc.12

Informação como uma influência que leva a transformação[editar | editar código-


fonte]

Informação é qualquer tipo de padrão que influencia a formação ou transformação de


outros padrões. Neste sentido, não há necessidade de que uma mente consciente
perceba, muito menos reconheça, tal padrão.
Informação como uma propriedade na física[editar | editar código-fonte]

Informação tem um papel bem definido em física. Exemplos disto incluem o fenômeno
da armadilha quântica, onde partículas podem interagir sem qualquer referência a sua
separação ou à velocidade da luz.

Informação e dados[editar | editar código-fonte]

As palavras informação e dados, sãointercambiáveis em muitos contextos. Todavia, não


são sinônimos. Por exemplo, de acordo com a observação de Adam M. Gadomski
(1993), dados é tudo que pode ser processado e as informações são dados que
descrevem um domínio físico ou abstra(c)to. Knuth aponta que o termo dados se refere
a representação do valor ou quantidade medida ao passo que informação, quando usada
em um sentido técnico, é o significado daquele dado.13

Informação como registros[editar | editar código-fonte]

Registros (ou registosPE) são uma forma especializada de informação. Essencialmente,


registros são informações produzidas como subprodutos de actividades comerciais ou
transações, ou conscientemente como um registo de tais actividades ou transações e
retidas em virtude do seu valor. Primariamente o seu valor é como evidência das
atividades da organização, mas eles também podem ser conservados por seu valor
informativo. O gerenciamento de registros (Records management) de sons garantem que
a integridade dos registros seja preservada enquanto forem necessários.

Hoje a tecnologia que os hardware oferecem é sem dúvida algo muito luxuoso, mas você
sabe quais as mudanças e transformações que a informática sofreu até se tonar o que é
hoje? Sem dúvidas o texto que você vai ler algora é uma grande aula de história, A
História da Informática.

Precedentes da informática
Para entender a criação de tudo, temos que conhecer alguns fatos que deram início a
informática, tudo tem início em 1642, quando o francês Blaise Pascal cria a primeira
calculadora do mundo, baseado em seus algorítimos.
Triangulo de Pascal

Inicia-se então a partir deste período muitas pesquisas a respeito do assunto, que se
aprofunda apenas em 1847, quando o matemático inglês George Boole cria o primeiro
sistema binário (os famosos algorismos 0 e 1), isso possibilitou a criação de processadores,
que trabalhavam interpretando a sequência de 0 e1 e a transformando em alguma
informação, isso foi realizado pelo norte-americano Herman Hollerith, o criador de um
processador de dados eletromecânico. Apesar de todas estas descobertas terem sido
vitais para a informática, nenhum destes homens imaginava o que estava prestes a surgir.

O primeiro computador do mundo


O primeiro computador do mundo surge em 1931 (fontes também alegam ter sido 1930)
quando Vannevar Bush, cordeador de um centro de pesquisa sobre ciência (atualmente
como ciência e tecnologia) desenvolve o primeiro computador do mundo, mas não vá
pensando que este já executava tarefas avançadas, era somente uma simples
calculadora analógica.

O Sistema analógico permitia gerar sequências numéricas infinitas, o que deixava a


grande calculadora muito vulnerável a erros, a solução então foi usar a tecnologia
de George Boole, o sistema binário. Com este sistema qualquer valor gerado pelo
computador alem de 0 e 1 não seria interpretado pela máquina e posteriormente
descartado, graças a este sistema binário hoje é possível termos os microprocessadores.
Sistema binário

A guerra e a evolução
Durante a Segunda Guerra mundial o computador teve uma grande importância, ao menos
para os Estados Unidos, que foi de interesses bélicos. Computadores foram usados para
codificação de mensagens secretas e também para calcular a trajetória dos mísseis.

Algum tempo depois em 1946 foi criado o ENIAC, um computador de 30 toneladas, 170m²
e 18k de válvulas. Este computador foi responsável para fazer os cálculos no
desenvolvimento da bomba atômica, apesar de ser de grande importância, ele não era
perfeito, sendo que de 2 em 2 minutos era perdida uma válvula por sobrecarga, que
acarretava a queimar o componente.

Homem realizando o reparo de uma válvula no ENIAC


O silício
Em 1954 a empresa Texas Instruments cria o primeiro transistor utilizando silício, por ser
um material semicondutor muito abundante, 2 anos depois o centro de pesquisas MIT cria
o primeiro computador utilizando transistores, a partir daí surge a técnica de criação de
placas de circuíto impresso (as famosas PCIs), porem não no mesmo tamanho que temos
hoje, eram elas muito maiores que as atuais.

A criação do HD
Quase 10 anos depois da introdução do silício na informática, surge o que hoje
conhecemos por HD, em 1962 foram utilizados os primeiros discos para armazenamentos
de informações no computador, este era um disco magnético, o que antes dele eram
utilizados fitas (também magnéticas) o que atrapalhava na gravação de dados pois poucos
dados podiam dar grandes rolos de fitas.

A corrida espacial
Sem dúvida alguma a corrida espacial, disputa entre os Estados Unidos e a União Soviética
favoreceu a tecnologia de modo geral, e principalmente o ramo da informática. Em meados
dos anos 60 os norte-americanos criaram um centro de pesquisas e tecnologia avançada, o
ARPA. Este centro possibilitou grandes coisas, um exemplo dele é a rede descentralizada,
hoje chamada de Internet.

Logo da Arpa Usa Inc


O que você vê é o que você obtém
Visto que era necessário a interação do homem com a máquina, criaram o termo (bem
lógico por sinal) Homem-Máquina, que se resume em dispositivos como Mouse e
interface gráfica, que ainda não havia sido criada, foi desenvolvida apenas em 1970, pela
empresa Xerox, o sistema tratava-se de uma comunicação visual que manipulava o
computador através de ícones, foi chamado inicialmente de WYSIWYG
(WhatYouSeeisWhatYouGet - Traduzindo - O que você vê é o que você obtém)

WYSIWYG

Antes disso em 1968, Douglas Engelbart cria um sistema com mouse, teclado e janelas.

O início dos microprocessadores


Em 1971, surge a tecnologia LargeScaleIntegration, que permitiu juntar vários circuítos
em apenas um único menor. O primeiro microprocessador foi o 8080 da Intel, após seu
surgimento várias outras empresas começaram a se basear na tecnologia e criar
microprocessadores.
Sistema de Microprocessamento Integrado.

Microsoft
Em 1975, Bill Gates e Paul Allen fundam a Microsoft, que logo começou a tentar investir
em sistemas.

Apple
Steve Jobs e Steve Wosniack criaram um computador chamado Apple, este computador
teve um sucesso tão grande que logo eles aprimoraram e lançaram o Apple II, voltado
para lucros comerciais. O Apple II foi o primeiro computador com unidade de disco flexível
(Disquete), o Apple II foi um dos computadores mais populares do mundo.
Apple II

IBM PC e DOS
Vendo o sucesso da Apple, a IBM, persuadida pela Microsoft, lança sua linha de
computadores IBM PC (PersonalComputer, ou seja, Computador Pessoal). Com grande
sucesso lançaram o IBM PC XT, tal fato ocorreu em 1983 e este computador possuía o
sistema MS DOS 2.0 e um disco rígido de 10 MB.
Logo MS DOS 2.0

Lisa & Macintosh


Enquanto isso a Apple lançava o LIsa e o Macintosh, computadores fáceis de manusear por
sua interface gráfica, apesar de ter grande sucesso era considerado um computador de
alto custo se comparado ao IBM PC, pois o mesmo alem de ser mais barato possuía uma
arquitetura mais flexível e aberta para o desenvolvimento de microcomputadores. A
arquitetura utilizada peloIBM PC (x86 (IA-16)) se tornou padrão no desenvolvimento de
microprocessadores.
O salto para o futuro, Windows
Logo após isso a Microsoft lança o Windows, em 1985, seguido da WorldWide Web (www),
criada por Tim Berners-Lee, muito pouco tempo depois Linus Torvald lança o sistema
operacional de código aberto, o Linux e com todas as tecnologias recentes, foi possível
criar o Pentium, computador lançado pela Intel que possibilitou a evolução de todos os
computadores atuais.

Depois disso, são muitos fatos e inovações tecnológicas que conhecemos, como o Windows
98, 2000 e posteriormente XP. Garanto que muitos de vocês que usam estas tecnologias
de hoje não sabiam que tudo isso foi necessário para criar computadores que hoje cabem
dentro de uma simples bolsa.

Leia mais no site: http://www.tecdicas.com/2012/07/a-historia-da-


informatica.html#ixzz2rAlqQZXO
UnderCreativeCommonsLicense: Attribution Non-Commercial No Derivatives
Followus: tecdicasonFacebook