Escolar Documentos
Profissional Documentos
Cultura Documentos
Pode ser que há 30, 40 anos você nem tinha nascido ainda, mas pode endenter um pouco
mais na prática como essa disponibilidade tecnológica mudou nosso cotidiano, conversando
com pessoas que vivenciaram, na prática, as tecnologias utilizadas naquela época. Elas
certamente dirão que nas últimas décadas cresceu, espantosamente, tanto a utilização de
máquinas na execução de várias atividades que antes eram feitas por pessoas, quanto o
volume de informações em circulação e como elas veem essa realidade.
Como você pode perceber, é este o contexto das temáticas que discutiremos neste minicurso. Para isso,
vamos partir da história da contagem, passando pelas primeiras lógicas de programação até chegar às
tecnologias atuais, como a nanotecnologia.
Portanto, com base na leitura desse material, complementada com informações colhidas em
conversas com outras pessoas, reflita sobre a evolução tecnológica e o significado de tudo isso
em nossas vidas e de como você pode utilizar, de forma positiva, as possibilidades disponíveis
na atualidade para os estudos acadêmicos. Se necessário, complemente ou aprofunde suas
reflexões pesquisando as fontes disponibilizadas em 'Referências' ou em outras de seu
interesse e tire o maior proveito desse momento!
Slide 2
Vamos ao detalhamento das temáticas mencionadas há pouco e iniciar a leitura dos conteúdos.
Apresentação das temáticas
Para discutirmos sobre a evolução tecnológica proposta nesse minicurso, vamos partir da:
Mas, antes do surgimento das máquinas conhecidas na atualidade e que possibilitam as mais
diversas atividades - máquinas essas que vêm desde os "dinossauros" como o ENIAC e
chegaram aos atuais microcomputadores – surgiram outros equipamentos e muita gente
esquentou a cabeça para encontrar soluções para melhorar a forma de se processar as
informações.
Ao observamos as novidades tecnológicas que surgem todos os dias à nossa volta e também a
quantidade de informações em circulação, algumas questões podem nos deixar inquietos,
como por exemplo…
Vamos em frente para conhecer o percurso do desenvolvimento das tecnologias ao longo dos
séculos e o impacto delas em nossos dias atuais.
Slide 3
História da contagem
Você já observou que, quase sempre, iniciamos o dia contando... os minutos e as horas para
determinada atividade, a distância de um local a outro, os dias que faltam para realizarmos algo
muito esperado, entre outras coisas? Que quase tudo que executamos envolve um processo
de contagem? Mas, será quando e por que esse processo de contagem teve início?
Ábaco
O que você sabe a respeito deste instrumento?
Você sabia, por exemplo, que foi com o sistema decimal dos hindus que o ábaco se tornou
uma importante ferramenta de contagem ?
Pois foi isso mesmo! Uma vez criado o sistema decimal, havia necessidade de um instrumento
para realizar operações. Produzido, inicialmente, por fenícios e espalhado para todo o extremo
Oriente, o ábaco é usado para ajudar no cálculo mental das quatro operações. Ele possui
varetas onde são encaixadas pedrinhas com valor relativo, ou seja, cada bolinha pode receber
um valor diferente conforme a posição de uma vareta em relação às outras. O ábaco foi
adotado por várias civilizações, mas com o crescente uso de papel e a invenção do lápis, foi
caindo em desuso; no entanto, nos dias atuais ainda tem sido utilizado, muitas vezes em
escolas, nos processos de ensino de matemática para crianças.
Logaritmos
Se dermos um salto até o início do século XVII, com o desenvolvimento das ciências
astronômicas, da Navegação e do Mercantilismo, constatamos que já naquela época, cálculos
muito extensos eram comuns. Levava-se muito tempo para efetuar multiplicações e divisões de
números grandes (com mais de 6 casas numéricas) porque era necessário que esses cálculos
fossem precisos. O matemático escocês, John Napier, encontrou uma solução para esse
problema. A ideia era a de simplificar as operações de multiplicação e de divisão por somas ou
subtrações, o que diminuiria, e muito, o tempo gasto. Essa solução foi publicada em 1614. A
partir daí, surgiram os logaritmos, que foram bastante úteis, porém o surgimento das
calculadoras acabou por superá-los.
Máquinas de calcular
Máquina programável
As máquinas de cálculo representaram grande avanço, porém quando a tarefa era repetitiva,
gastava-se muito tempo para operá-las, manualmente, pois era necessário efetuar sempre as
mesmas operações. Então, em 1801, Joseph-Marie Jacquard, criou um tear que podia fabricar
tecidos com desenhos complexos de acordo com modelos de cartões metálicos. Esses cartões
eram introduzidos no tear e possibilitavam que somente certas hastes ligadas aos fios, uma
espécie de agulhas bem grandes trabalhassem. Nos locais dos cartões, onde haviam furos,
essas hastes trabalhavam e onde não havia, elas ficavam contidas. As hastes que não ficavam
contidas acabavam por serem erguidas, levando fios ligados a elas. Com isso, faziam com que,
entre os fios levantados e os abaixados fossem introduzidos novos fios, fazendo o entrelaço.
Foi criado, assim, o conceito de informação binária (com hastes e sem hastes) e propagou-se a
ideia de instruir as máquinas para uma determinada tarefa.
Preocupado com erros nas tabelas de cálculo de sua época, o matemático Charles Babbage
propôs a construção de duas máquinas importantíssimas na história da computação. Fabricou
uma pequena versão da primeira máquina programável, chamada de máquina diferencial, entre
1802 e 1822. Esse equipamento foi desenvolvido para resolver equações de grande
aplicabilidade na ciência e possibilitaria grandes avanços: as equações diferenciais.
Bastava iniciar as operações que o equipamento fazia o resto. Depois de 10 anos trabalhando
nessa máquina, equipando-a com até 6 caracteres, Babbage teve a ideia de uma segunda
máquina, mais geral, que realizasse diversas tarefas: a analítica. Ele não chegou a terminar por
completo nenhuma das duas máquinas, devido as suas grandiosidades - seriam mais de
50.000 componentes somente na analítica - mas elas influenciaram e muito a computação
atual. Uma das poucas pessoas a ajudar Babbage em seus estudos foi Ada Augusta, lady
Lovelace, que entendeu o propósito da máquina analítica e produziu as suas primeiras
instruções, tornando-se assim, a primeira programadora do mundo.
Em 1889, o estatístico Herman Hollerith se inspirou em Jacquard e utilizou cartões com furos
em locais específicos para cada pergunta respondida, por pessoa. Ao inserir os cartões na
máquina, um pino vinha de encontro a esse cartão, mas só conseguia atravessar o furo. Dessa
forma, o pino entrava em contato com um recipiente contendo mercúrio, que é um exemplo de
metal, com o qual o pino podia conduzir eletricidade mais facilmente, acionando um contador
que movia uma unidade a mais. Esse feito facilitou bastante o censo dos EUA de 1890. O
censo de 1880 havia levado cerca de sete anos e meio, o de 1890, com os cartões perfurados,
foram gastos apenas dois anos e meio. Depois de tamanho sucesso, Hollerith fundou a
Companhia de Máquinas de Tabulação, rebatizada em 1924 de IBM (International Business
Machine). Naquela época, foram produzidas máquinas para analisar grandes volumes de
informações, como folhas de pagamento de empresas.
Antes de seguir para o próximo tópico, reflita sobre os assuntos discutidos nesses três
primeiros e execute o que se pede.
Arraste cada bloco de palavras à coluna que traz o título da temática correspondente, ou seja,
aquela que representa a época e aborda o assunto contido em cada bloco.
Slide 4
Analógico e digital
Para entendermos melhor o que seria analógico e digital, faremos uma analogia com o ser
humano. Isso mesmo! A criatura humana, assim como a natureza, é analógica, podendo
receber e transmitir informações de diferentes formas que podem também ser interpretadas e
representadas de várias maneiras. Já no mundo digital, o que acontece é a representação
binária (0 ou 1) do analógico, do mundo real, portanto. Os equipamentos recebem as diversas
informações e as simbolizam em sequências de 0 e 1, também chamados de linguagem de
máquina.
A lógica na computação
Como já citamos, Babbage gostaria de fabricar uma máquina que realizasse várias tarefas. E
como bom matemático que era, conhecia muito sobre lógica matemática. Em 1854, o também
matemático George Boole publicou um trabalho que relaciona lógica e equações, o que é
chamado de álgebra booleana. Posteriormente, três estudiosos deste segmento, usando os
conhecimentos dos matemáticos Babbage e Boole, deram contribuições fundamentais para o
que chamaremos de rascunho dos computadores modernos. Todos eles publicaram seus
trabalhos em 1937. Primeiro, citaremos o de Alan Marhinson Turing, que organizou de forma
incrível o que poderia ser executado por uma máquina. Essa, por sua vez, segue uma espécie
de plano de execuções de tarefas chamado de algoritmo. E para representar todas as
máquinas que obedecem a um algoritmo, Turing inventou uma máquina imaginária - a máquina
de Turing. Assim, se a máquina de Turing não conseguisse resolver determinado problema,
então não haveria algoritmo no mundo capaz de ajudar a descrevê-lo. Esse modelo teórico é o
usado em programação até hoje.
O segundo nome importante na caminhada para a construção dos computadores eletrônicos é
Claude Shannon. Ele estudou e estabeleceu uma conexão entre a álgebra booleana e os
componentes eletrônicos colocados em um circuito elétrico. Assim, foi possível produzir
circuitos eletrônicos bem mais simples e baratos, usando o código binário. Shannon percebeu
que a álgebra booleana era uma espécie de idioma dos circuitos. É como se eles,
naturalmente, se comunicassem por meio dessa matemática e, a partir do momento em que se
entendesse o que eles queriam "dizer", seria possível ordená-los para a tarefa que quisesse.
Ao mesmo tempo, George Stibitz, pesquisador da Bell Telephones Company, desenvolveu o
primeiro circuito usando esses princípios.
Slide 5
Vimos nessa breve síntese como foram trabalhadas as primeiras ideias de lógica da
computação. Vamos à próxima fase que teve início com essa lógica, que foi a era da
computação eletrônica.
Computação Eletrônica
Para facilitar a compreensão, vamos dividir essa era da computação eletrônica em:
Primeira geração
Essa geração teve início em 1904, quando Jonh Ambrose Fleming criou a válvula. Ela foi
importantíssima na produção das primeiras máquinas da computação eletrônica. Com a
Primeira Guerra Mundial, o volume de dinheiro investido em computação cresceu muito. Mas
foi com o ENIAC (Electrical Numerical Integrator and Calculator), em português Calculadora
Numérica Elétrica Integrada – lançado em 1946, que a história começou a mudar. O ENIAC
podia realizar muitas tarefas, em que os dados eram inseridos via cartões perfurados (essa
ideia é de Jacquard!) e os programas para manipulá-los eram inseridos via cabos. O ENIAC era
um equipamento grandioso, potente e nada econômico, tanto que não podia funcionar
seguidamente por muitos minutos; afinal, sua potência era igual a 150kW. Possuía mais de 18
mil válvulas e ocupava uma área por volta de 93 m2. Imagine um quadrado de 9,6 m de lado,
esse era o tamanho aproximado do ENIAC.
Em meados de 1940, John Von Neumann lançou a ideia de que tanto os dados do problema,
quanto as instruções para resolvê-lo, deveriam ser armazenadas no computador e
representadas com um símbolo comum. Com isso, não seria necessário ficar constantemente
trocando cabos, como acontecia com o ENIAC. Isso revolucionou o conceito de programação
em computadores, fazendo com que os programas fossem inseridos através de cartões
perfurados, assim como eram feitos com os dados. Utilizando essas ideias inovadoras, foi
criado, em 1952, o EDVAC (Electronic Discrete Variable Automatic Computer, ou em
português, Computador Automático Eletrônico de Variáveis Discretas) e, a partir dele, os dados
e as instruções já estavam contidos internamente no computador.
Terceira geração
Nessa geração, que teve início por volta de 1964, foram desenvolvidos CI's (Circuitos
Integrados) que possibilitaram a multifuncionalidade dos computadores, ou seja, capacidade de
realizar várias tarefas ao mesmo tempo, diferente do que ocorria com o transistor desenvolvido
na geração anterior.
Mas não pense que os transistores sumiram. Eles apenas tiveram o tamanho diminuído e
foram adicionados ao circuito integrado, onde se coloca vários componentes eletrônicos sobre
uma superfície especial de silício. Isso fez com que barateasse a produção, diminuisse o
tamanho e garantiu maior confiabilidade às máquinas, e ainda foi possível manufaturar a
produção, popularizando o computador.
O primeiro computador dessa geração foi o IBM 360, lançado no mesmo ano de 1964. A
família System 360 foi projetada para uso comercial e científico, em diversos tamanhos e
modelos. E nesse conceito de "família de computadores", podia-se trocar de máquina sem ser
necessário substituir o software, conjunto de instruções lógicas do computador. Outro grande
impacto da IBM foi o de vender apenas a parte física do computador, o hardware. Assim, o
usuário podia fazer opção por qual software adicionar a seu computador, o que impulsionou e
muito a indústria de software, fazendo com que os computadores fossem inseridos no comércio
de forma intensa, especialmente, em áreas de reservas e verificações de crédito.
Quarta geração
Essa geração teve início apenas seis anos após a terceira, mais precisamente na década de
1970, quando os computadores passaram por uma evolução, não mais a revolução que os
chips trouxeram anteriormente. O que ocorreu, nessa época, foi uma extensão da tecnologia da
terceira geração, ou seja, na primeira parte da terceira geração, desenvolveram-
se chips específicos para a memória e lógica do computador. Assim, na quarta geração tudo foi
colocado em um processador de uso geral, em um único chip, o microprocessador. Isso
alavancou o uso de computadores em todo o mundo. Surgiram, então, o PET 2001(1976) – o
primeiro microcomputador pessoal e comercial; o Apple II e III (1977-1979) – que
proporcionavam à empresa grandes lucros; o Macintosh (1984) e o IBM 386 (1985). Esses
computadores são, praticamente, cem vezes menores que os da primeira geração e mais
eficientes que o próprio ENIAC.
Quinta geração
Essa é caracterizada como uma geração de grande avanço, pois já contamos com a
nanotecnologia: tecnologia que envolve a pesquisa em estruturas que têm dimensão
compreendida entre 1 e várias centenas de nanômetros. As vacinas, compostas por proteínas
da ordem de um bilionésimo de metro, podem ser um exemplo dela. O tamanho cada vez
menor dos microchips é também responsável pelo despertar desse reino de blocos de
construções básicos da matéria, governado por átomos e moléculas. Apesar dos vários
obstáculos que a diminuição do dispositivo enfrenta como o de ter que aumentar a velocidade
de processamento de informações adicionando mais e mais componentes eletrônicos, soluções
baseadas na mecânica quântica são propostas. Trata-se de um ramo da física que estuda o
comportamento dos pequenos "tijolos" da matéria como os elétrons, os prótons e os nêutrons.
Atualmente, pode-se construir nanotubos de carbono, espécie de "rede" de átomos de carbono
que formem uma estrutura bem estável, com relevantes aplicações industriais, como na
fabricação de microchips. Mas, uma das grandes promessas é a utilização de computadores
quânticos, que têm a capacidade de processar as informações a velocidades muito, mais muito
superiores que as utilizadas hoje.
Slide 6
Como podemos perceber, os avanços que vem ocorrendo desde o início são no sentido de
aperfeiçoar a capacidade da máquina de processar informações.
E você, sabe que "língua" o computador entende?
Pode-se considerar que um byte equivale a um caractere. Assim, um caractere pode ser
formado por uma sequência de 8, 16, 32 e 64 bits. Pensando em 8 bits, podemos representar a
letra A, por exemplo, pela sequência 11000001. Essa sequência forma um termo binário, um
byte. Seguindo essa linha de raciocínio, convenciona-se que 1024 bytes equivalem a 1 Kbyte
(KB). 1 MByte (MB), por sua vez, é constituído por 1024 Kbytes, 1GByte (GB) é formado por
1024 MBytes, e assim por diante.
Slide 7
Antes de seguir para a última temática desse material, que tal mais uma parada para exercitar
um pouco o que leu nos últimos tópicos?
Complete a lacuna que aparece em cada questão, com um dos blocos de palavras da lista de
opções. Para isso, basta clicar no link que aparece em cada questão e selecionar a opção
correta.
Boa sorte!
Side 8
Para pensarmos um pouco mais a esse respeito, podemos tomar como referência também a
Lei de Moore. Essa Lei, tida como uma "profecia" em 1965, trata-se das observações que
Gordon E. Moore fez sobre o desenvolvimento e o futuro do hardware. Com base na
velocidade com que a tecnologia avançava, ele fez previsão de que o número de transistores
em um chip teria um aumento de 100%, a cada período de 18 meses.
Em 2001, essa Lei foi ampliada por Ray Kurzweil ao afirmar que "sempre que uma tecnologia
encontra um tipo de barreira que interrompe ou desacelera seu desenvolvimento, surge uma
outra tecnologia que rompe com essa barreira." Ele acredita que, por volta de 2045, a
humanidade deve atingir a singularidade tecnológica, ou seja, um crescimento tecnológico da
super inteligência artificial que ocasionará mudanças irreversíveis na civilização humana. De
maneira bastante simples, podemos dizer que o que Kurzweil prevê é que poderá ocorrer, por
exemplo, reações desenfreadas de um agente inteligente atualizável, de forma que esse
agente seja capaz de se auto-aperfeiçoar. De forma mais sintética, é dizer que a inteligência
artificial passa a superar a humana.
Além de impulsionar os
Hoje, além de parâmetro para a unidade central de processamento (CPUs), a Lei de Moore
funciona também como parâmetro para diversos dispositivos digitais, até mesmo para o
dispositivo de carga acoplada de câmeras fotográficas digitais, o CCD (charge-coupled device)
que é um sensor semicondutor para captação de imagens formado por um circuito integrado.
Claro que após essas observações destacadas nos parágrafos anteriores, vários estudos vêm
revelando o que tem ocorrido com os avanços tecnológicos e também fazem outras projeções
futuristas nesse sentido.
No entanto, quando nos deparamos com reflexões como as de Kurzweil, de que a inteligência
humana pode ser superada pela artificial, muitas questões nos inquietam, como: Isso será
mesmo possível? Que consequências podem trazer?
Alguns teóricos observam que, se seguirmos nessa linha das projeções, conforme comentamos
há pouco, a única certeza que podemos ter é que a tecnologia será, nos próximos tempos,
centenas de milhares de vezes mais avançadas do que é hoje. Podemos considerar como
sinalizadoras desses avanços, as tecnologias conhecidas como vestíveis - ou em inglês
gadgets - como relógios e pulseiras que monitoram atividades físicas, óculos interativos, entre
outros. E que pode ocorrer também a incorporação de aplicativos de realidade aumentada em
diferentes situações, provocando assim mudanças significativas no cotidiano da população.
Entretanto, precisamos estar atentos, pois enquanto por um lado todo esse desenvolvimento
tecnológico possibilita a resolução de muitos problemas, por outro ele também pode criar vários
outros.
Slide 9
Destaque!
Nesse universo, uma coisa é certa: a Tecnologia da Informação e Comunicação (TIC) -
recursos tecnológicos e computacionais utilizados para a produção e circulação de informações
e conhecimentos - pode representar as alternativas que temos de potencializarmos nossas
possibilidades de aprendizagem, de construção de saberes e de nos prepararmos,
constantemente, para a realidade que se apresenta.
Vale observarmos, por exemplo, que o uso da tecnologia e o que ela representa na sociedade
contemporânea tem sido objeto de estudos e debates em diferentes segmentos e recebido
alguns títulos como de sociedade:
pós-industrial;
pós-moderna;
da informação;
do conhecimento econômico;
da revolução da informação;
do capitalismo da informação, entre outros.
Assim, o cenário que se apresenta é o de um 'mundo digital' em que as pessoas, tanto na vida
pessoal quanto na profissional, buscam encaminhamentos e soluções ágeis para as mais
diferentes situações. Por outro lado, esse contexto pode ser responsável também por
problemas, como grandes diferenças sociais que ocorrem entre pessoas, empresas, países,
etc.
Além do uso das diferentes ferramentas para o acesso às informações difundidas, é necessária
a efetiva participação da população das diferentes regiões nesse mundo digital. Pois, inclusão
digital pressupõe também a possibilidade de criação e difusão da própria produção intelectual,
visando não somente a democratização de uso da tecnologia mas, em especial, da produção e
disseminação de experiências e conhecimentos.
Observamos, no entanto, que esses apontamentos têm como finalidade destacar mais uma vez
que nesse universo existem vantagens e desvantagens e que elas precisam ser lembradas,
discutidas e estudadas, em especial, nos meios acadêmicos.
Então leia, pense e leve suas dúvidas e inquietações para as conversas com amigos, familiares
e, principalmente, para os debates nos espaços de interação e comunicação de seu curso.
Aproveite bem esse momento que pode ser bastante rico em vários sentidos!
Bons estudos!
Slide 10
Atividade
Para resolver as 15 questões que compõem a atividade a seguir, leia com atenção cada
questão, reflita sobre o que leu e responda. Quando terminar, confira o gabarito e veja o que
você acertou e também o que necessita de mais leitura!
Boa sorte!
Referências
https://revistagalileu.globo.com/Tecnologia/noticia/2014/07/evolucao-tecnologica-como-
sera-nossa-vida-daqui-20-anos.html. Acessado em 15 jan. 2018.
Fim