Você está na página 1de 46

Introdução

Muitos dos acontecimentos tecnológicos na área da computação e informática da atualidade,


têm origem em necessidades e experimentos de antepassados. Tais experimentos que muitas
vezes levaram à criação de algumas técnicas ou dispositivos tecnológicos vêm influenciando
cientistas de diferentes épocas no desenvolvimento, aperfeiçoamento e transformações dessas
criações e técnicas na busca de inovações ou de novas criações que atendam às
necessidades que vêm se apresentando ao longo dos tempos.

Para entendermos a evolução das tecnologias na área da computação e informática, observar


como a disponibilidade desses recursos cresceu nos últimos tempos e refletir sobre a
repercussão de tudo isso em nossas vidas, precisamos conhecer os principais acontecimentos
que marcaram o percurso dessa evolução e que, de certa forma, deram origem às tecnologias
que conhecemos e utilizamos hoje.

Pode ser que há 30, 40 anos você nem tinha nascido ainda, mas pode endenter um pouco
mais na prática como essa disponibilidade tecnológica mudou nosso cotidiano, conversando
com pessoas que vivenciaram, na prática, as tecnologias utilizadas naquela época. Elas
certamente dirão que nas últimas décadas cresceu, espantosamente, tanto a utilização de
máquinas na execução de várias atividades que antes eram feitas por pessoas, quanto o
volume de informações em circulação e como elas veem essa realidade.
Como você pode perceber, é este o contexto das temáticas que discutiremos neste minicurso. Para isso,
vamos partir da história da contagem, passando pelas primeiras lógicas de programação até chegar às
tecnologias atuais, como a nanotecnologia.

Portanto, com base na leitura desse material, complementada com informações colhidas em
conversas com outras pessoas, reflita sobre a evolução tecnológica e o significado de tudo isso
em nossas vidas e de como você pode utilizar, de forma positiva, as possibilidades disponíveis
na atualidade para os estudos acadêmicos. Se necessário, complemente ou aprofunde suas
reflexões pesquisando as fontes disponibilizadas em 'Referências' ou em outras de seu
interesse e tire o maior proveito desse momento!

Slide 2

Vamos ao detalhamento das temáticas mencionadas há pouco e iniciar a leitura dos conteúdos.
Apresentação das temáticas

Para discutirmos sobre a evolução tecnológica proposta nesse minicurso, vamos partir da:

 História da contagem, passar pelas


 Máquinas de calcular;
 Máquina programável;
 Lógica na computação até chegar às
 Gerações da computação, dispositivos móveis e demais tecnologias da
atualidade.

“Hoje sabemos que a informação, mais do que nunca, é essencial!

Mas, antes do surgimento das máquinas conhecidas na atualidade e que possibilitam as mais
diversas atividades - máquinas essas que vêm desde os "dinossauros" como o ENIAC e
chegaram aos atuais microcomputadores – surgiram outros equipamentos e muita gente
esquentou a cabeça para encontrar soluções para melhorar a forma de se processar as
informações.
Ao observamos as novidades tecnológicas que surgem todos os dias à nossa volta e também a
quantidade de informações em circulação, algumas questões podem nos deixar inquietos,
como por exemplo…

De imediato, nossa tendência é de atribuirmos a responsabilidade de grande parte de tudo isso


à rede de computadores. Mas será que tal realidade teve início com a criação dessa rede?

Vamos em frente para conhecer o percurso do desenvolvimento das tecnologias ao longo dos
séculos e o impacto delas em nossos dias atuais.

Slide 3
História da contagem
Você já observou que, quase sempre, iniciamos o dia contando... os minutos e as horas para
determinada atividade, a distância de um local a outro, os dias que faltam para realizarmos algo
muito esperado, entre outras coisas? Que quase tudo que executamos envolve um processo
de contagem? Mas, será quando e por que esse processo de contagem teve início?

Segundo a história, a contagem surgiu da necessidade de se organizar as coisas que


rodeavam o homem. Era preciso, por exemplo, ordenar os animais, a colheita, os frutos, as
pessoas, enfim, tudo que se podia computar. Para tanto, era necessário um sistema numérico,
que as pessoas conhecessem. Existiram vários sistemas, praticamente um para cada nação
bem desenvolvida da Idade Antiga: fenícios, árabes, gregos, sumérios, babilônios, egípcios,
romanos, hebreus, maias, chineses e, por fim, os hindus. O nosso sistema de numeração atual
é fruto da evolução do que foi criado pelos hindus, e aperfeiçoado, ao longo do tempo, por
árabes, babilônios, chineses, egípcios e por outras civilizações que, posteriomente,
apareceram. Esse sistema se baseia nos dedos das mãos: o sistema decimal.

Ábaco
O que você sabe a respeito deste instrumento?
Você sabia, por exemplo, que foi com o sistema decimal dos hindus que o ábaco se tornou
uma importante ferramenta de contagem ?

Pois foi isso mesmo! Uma vez criado o sistema decimal, havia necessidade de um instrumento
para realizar operações. Produzido, inicialmente, por fenícios e espalhado para todo o extremo
Oriente, o ábaco é usado para ajudar no cálculo mental das quatro operações. Ele possui
varetas onde são encaixadas pedrinhas com valor relativo, ou seja, cada bolinha pode receber
um valor diferente conforme a posição de uma vareta em relação às outras. O ábaco foi
adotado por várias civilizações, mas com o crescente uso de papel e a invenção do lápis, foi
caindo em desuso; no entanto, nos dias atuais ainda tem sido utilizado, muitas vezes em
escolas, nos processos de ensino de matemática para crianças.
Logaritmos

Se dermos um salto até o início do século XVII, com o desenvolvimento das ciências
astronômicas, da Navegação e do Mercantilismo, constatamos que já naquela época, cálculos
muito extensos eram comuns. Levava-se muito tempo para efetuar multiplicações e divisões de
números grandes (com mais de 6 casas numéricas) porque era necessário que esses cálculos
fossem precisos. O matemático escocês, John Napier, encontrou uma solução para esse
problema. A ideia era a de simplificar as operações de multiplicação e de divisão por somas ou
subtrações, o que diminuiria, e muito, o tempo gasto. Essa solução foi publicada em 1614. A
partir daí, surgiram os logaritmos, que foram bastante úteis, porém o surgimento das
calculadoras acabou por superá-los.

Percebe como já vem de 'longe' as primeiras ideias da computação?

Máquinas de calcular

Para dinamizar o processo de contagem, foram criadas as primeiras máquinas de calcular, as


calculadoras. Uma das primeiras, apresentada por Blaise Pascal em 1642, era composta por
oito discos ligados como engrenagens. Assim, cada disco possuía dentes que se encaixavam e
giravam ao ser acionado pelo menos um desses discos. Era possível fazer somas e subtrações
de até oito algarismos! Em 1694, o grande matemático, Gottfried Von Leibniz apresentou a sua
versão para a máquina de Pascal, ampliando-a, ao acrescentar a operação de multiplicação.
Mas, foi com a máquina de Charles Xavier Thomas de Colmar, em 1818, que a popularidade
de tais máquinas cresceu. Afinal, esta era capaz de realizar as quatro operações aritméticas.
Com o tempo, a versão Colmar foi aperfeiçoada, o que durou até, aproximadamente, a Primeira
Grande Guerra (1914-1918).

Máquina programável
As máquinas de cálculo representaram grande avanço, porém quando a tarefa era repetitiva,
gastava-se muito tempo para operá-las, manualmente, pois era necessário efetuar sempre as
mesmas operações. Então, em 1801, Joseph-Marie Jacquard, criou um tear que podia fabricar
tecidos com desenhos complexos de acordo com modelos de cartões metálicos. Esses cartões
eram introduzidos no tear e possibilitavam que somente certas hastes ligadas aos fios, uma
espécie de agulhas bem grandes trabalhassem. Nos locais dos cartões, onde haviam furos,
essas hastes trabalhavam e onde não havia, elas ficavam contidas. As hastes que não ficavam
contidas acabavam por serem erguidas, levando fios ligados a elas. Com isso, faziam com que,
entre os fios levantados e os abaixados fossem introduzidos novos fios, fazendo o entrelaço.
Foi criado, assim, o conceito de informação binária (com hastes e sem hastes) e propagou-se a
ideia de instruir as máquinas para uma determinada tarefa.

Preocupado com erros nas tabelas de cálculo de sua época, o matemático Charles Babbage
propôs a construção de duas máquinas importantíssimas na história da computação. Fabricou
uma pequena versão da primeira máquina programável, chamada de máquina diferencial, entre
1802 e 1822. Esse equipamento foi desenvolvido para resolver equações de grande
aplicabilidade na ciência e possibilitaria grandes avanços: as equações diferenciais.

Bastava iniciar as operações que o equipamento fazia o resto. Depois de 10 anos trabalhando
nessa máquina, equipando-a com até 6 caracteres, Babbage teve a ideia de uma segunda
máquina, mais geral, que realizasse diversas tarefas: a analítica. Ele não chegou a terminar por
completo nenhuma das duas máquinas, devido as suas grandiosidades - seriam mais de
50.000 componentes somente na analítica - mas elas influenciaram e muito a computação
atual. Uma das poucas pessoas a ajudar Babbage em seus estudos foi Ada Augusta, lady
Lovelace, que entendeu o propósito da máquina analítica e produziu as suas primeiras
instruções, tornando-se assim, a primeira programadora do mundo.
Em 1889, o estatístico Herman Hollerith se inspirou em Jacquard e utilizou cartões com furos
em locais específicos para cada pergunta respondida, por pessoa. Ao inserir os cartões na
máquina, um pino vinha de encontro a esse cartão, mas só conseguia atravessar o furo. Dessa
forma, o pino entrava em contato com um recipiente contendo mercúrio, que é um exemplo de
metal, com o qual o pino podia conduzir eletricidade mais facilmente, acionando um contador
que movia uma unidade a mais. Esse feito facilitou bastante o censo dos EUA de 1890. O
censo de 1880 havia levado cerca de sete anos e meio, o de 1890, com os cartões perfurados,
foram gastos apenas dois anos e meio. Depois de tamanho sucesso, Hollerith fundou a
Companhia de Máquinas de Tabulação, rebatizada em 1924 de IBM (International Business
Machine). Naquela época, foram produzidas máquinas para analisar grandes volumes de
informações, como folhas de pagamento de empresas.

Antes de seguir para o próximo tópico, reflita sobre os assuntos discutidos nesses três
primeiros e execute o que se pede.

Arraste cada bloco de palavras à coluna que traz o título da temática correspondente, ou seja,
aquela que representa a época e aborda o assunto contido em cada bloco.
Slide 4
Analógico e digital

Para entendermos melhor o que seria analógico e digital, faremos uma analogia com o ser
humano. Isso mesmo! A criatura humana, assim como a natureza, é analógica, podendo
receber e transmitir informações de diferentes formas que podem também ser interpretadas e
representadas de várias maneiras. Já no mundo digital, o que acontece é a representação
binária (0 ou 1) do analógico, do mundo real, portanto. Os equipamentos recebem as diversas
informações e as simbolizam em sequências de 0 e 1, também chamados de linguagem de
máquina.

No entanto, há como também transformar o sinal digital em analógico. É o que acontece


quando a caixa de som funciona, pois um programa usa instruções na linguagem de um
computador para reproduzir a voz de uma pessoa, por exemplo.

A lógica na computação

Como já citamos, Babbage gostaria de fabricar uma máquina que realizasse várias tarefas. E
como bom matemático que era, conhecia muito sobre lógica matemática. Em 1854, o também
matemático George Boole publicou um trabalho que relaciona lógica e equações, o que é
chamado de álgebra booleana. Posteriormente, três estudiosos deste segmento, usando os
conhecimentos dos matemáticos Babbage e Boole, deram contribuições fundamentais para o
que chamaremos de rascunho dos computadores modernos. Todos eles publicaram seus
trabalhos em 1937. Primeiro, citaremos o de Alan Marhinson Turing, que organizou de forma
incrível o que poderia ser executado por uma máquina. Essa, por sua vez, segue uma espécie
de plano de execuções de tarefas chamado de algoritmo. E para representar todas as
máquinas que obedecem a um algoritmo, Turing inventou uma máquina imaginária - a máquina
de Turing. Assim, se a máquina de Turing não conseguisse resolver determinado problema,
então não haveria algoritmo no mundo capaz de ajudar a descrevê-lo. Esse modelo teórico é o
usado em programação até hoje.
O segundo nome importante na caminhada para a construção dos computadores eletrônicos é
Claude Shannon. Ele estudou e estabeleceu uma conexão entre a álgebra booleana e os
componentes eletrônicos colocados em um circuito elétrico. Assim, foi possível produzir
circuitos eletrônicos bem mais simples e baratos, usando o código binário. Shannon percebeu
que a álgebra booleana era uma espécie de idioma dos circuitos. É como se eles,
naturalmente, se comunicassem por meio dessa matemática e, a partir do momento em que se
entendesse o que eles queriam "dizer", seria possível ordená-los para a tarefa que quisesse.
Ao mesmo tempo, George Stibitz, pesquisador da Bell Telephones Company, desenvolveu o
primeiro circuito usando esses princípios.

Slide 5

Vimos nessa breve síntese como foram trabalhadas as primeiras ideias de lógica da
computação. Vamos à próxima fase que teve início com essa lógica, que foi a era da
computação eletrônica.

Computação Eletrônica
Para facilitar a compreensão, vamos dividir essa era da computação eletrônica em:

 primeira geração - criação da válvula;


 segunda geração - desenvolvimento do transistor;
 terceira geração - circuitos integrados;
 quarta geração - desenvolvimento dos chips para a memória e lógica do computador;
 quinta geração - já contamos com a nanotecnologia.

Primeira geração
Essa geração teve início em 1904, quando Jonh Ambrose Fleming criou a válvula. Ela foi
importantíssima na produção das primeiras máquinas da computação eletrônica. Com a
Primeira Guerra Mundial, o volume de dinheiro investido em computação cresceu muito. Mas
foi com o ENIAC (Electrical Numerical Integrator and Calculator), em português Calculadora
Numérica Elétrica Integrada – lançado em 1946, que a história começou a mudar. O ENIAC
podia realizar muitas tarefas, em que os dados eram inseridos via cartões perfurados (essa
ideia é de Jacquard!) e os programas para manipulá-los eram inseridos via cabos. O ENIAC era
um equipamento grandioso, potente e nada econômico, tanto que não podia funcionar
seguidamente por muitos minutos; afinal, sua potência era igual a 150kW. Possuía mais de 18
mil válvulas e ocupava uma área por volta de 93 m2. Imagine um quadrado de 9,6 m de lado,
esse era o tamanho aproximado do ENIAC.

Em meados de 1940, John Von Neumann lançou a ideia de que tanto os dados do problema,
quanto as instruções para resolvê-lo, deveriam ser armazenadas no computador e
representadas com um símbolo comum. Com isso, não seria necessário ficar constantemente
trocando cabos, como acontecia com o ENIAC. Isso revolucionou o conceito de programação
em computadores, fazendo com que os programas fossem inseridos através de cartões
perfurados, assim como eram feitos com os dados. Utilizando essas ideias inovadoras, foi
criado, em 1952, o EDVAC (Electronic Discrete Variable Automatic Computer, ou em
português, Computador Automático Eletrônico de Variáveis Discretas) e, a partir dele, os dados
e as instruções já estavam contidos internamente no computador.

Em 1951, foi construído o UNIVAC I (Universal Automatic Computer, que em português


equivale a Computador Universal Automático), primeiro computador com fins comerciais, criado
para ser usado no Censo dos EUA. Nele, os dados eram inseridos em fitas magnéticas,
possibilitando maior rapidez na interpretação se comparado aos cartões perfurados. Essa
máquina ocupava uma área de 32,5 m2 e consumia 14 kW. Os grandes inconvenientes desta
geração de computadores era a frequente reposição de válvulas, que por dissipar calor
intensamente, aqueciam demais seus circuitos internos, que deixavam de funcionar. Hoje,
podemos considerar esses primeiros equipamentos como os bisavôs dos computadores atuais.
Segunda geração
Destacamos como início dessa geração o ano de 1948, em que os três físicos John Bardeen,
Walter Brattain e William Schockley desenvolveram o transistor. Os transistores eram
equipamentos bem menores, que dissipavam calor em menor quantidade, mais rápidos e
confiáveis do que as válvulas e possibilitaram, ainda, a diminuição do tamanho dos
computadores. No final da década de 1950, surgiram os Stretch da IBM, e LARC da Sperry-
Rand, com essa tecnologia. Eles podiam fazer mais cálculos e ajudar em pesquisas bem
complexas, diminuindo o tempo gasto. Além do mais, deixou-se de utilizar aquela linguagem
cansativa, com muitos números, para já evoluir e utilizar uma linguagem com letras, como
o assembly. Na década de 1950, já existiam linguagens como o FORTRAN (1954) e COBOL
(1959), em que se utilizavam de sentenças com palavras, funções matemáticas e funções
lógicas, tornando a computação bem mais compreensível.

Terceira geração
Nessa geração, que teve início por volta de 1964, foram desenvolvidos CI's (Circuitos
Integrados) que possibilitaram a multifuncionalidade dos computadores, ou seja, capacidade de
realizar várias tarefas ao mesmo tempo, diferente do que ocorria com o transistor desenvolvido
na geração anterior.

Mas não pense que os transistores sumiram. Eles apenas tiveram o tamanho diminuído e
foram adicionados ao circuito integrado, onde se coloca vários componentes eletrônicos sobre
uma superfície especial de silício. Isso fez com que barateasse a produção, diminuisse o
tamanho e garantiu maior confiabilidade às máquinas, e ainda foi possível manufaturar a
produção, popularizando o computador.

O primeiro computador dessa geração foi o IBM 360, lançado no mesmo ano de 1964. A
família System 360 foi projetada para uso comercial e científico, em diversos tamanhos e
modelos. E nesse conceito de "família de computadores", podia-se trocar de máquina sem ser
necessário substituir o software, conjunto de instruções lógicas do computador. Outro grande
impacto da IBM foi o de vender apenas a parte física do computador, o hardware. Assim, o
usuário podia fazer opção por qual software adicionar a seu computador, o que impulsionou e
muito a indústria de software, fazendo com que os computadores fossem inseridos no comércio
de forma intensa, especialmente, em áreas de reservas e verificações de crédito.
Quarta geração
Essa geração teve início apenas seis anos após a terceira, mais precisamente na década de
1970, quando os computadores passaram por uma evolução, não mais a revolução que os
chips trouxeram anteriormente. O que ocorreu, nessa época, foi uma extensão da tecnologia da
terceira geração, ou seja, na primeira parte da terceira geração, desenvolveram-
se chips específicos para a memória e lógica do computador. Assim, na quarta geração tudo foi
colocado em um processador de uso geral, em um único chip, o microprocessador. Isso
alavancou o uso de computadores em todo o mundo. Surgiram, então, o PET 2001(1976) – o
primeiro microcomputador pessoal e comercial; o Apple II e III (1977-1979) – que
proporcionavam à empresa grandes lucros; o Macintosh (1984) e o IBM 386 (1985). Esses
computadores são, praticamente, cem vezes menores que os da primeira geração e mais
eficientes que o próprio ENIAC.

Quinta geração
Essa é caracterizada como uma geração de grande avanço, pois já contamos com a
nanotecnologia: tecnologia que envolve a pesquisa em estruturas que têm dimensão
compreendida entre 1 e várias centenas de nanômetros. As vacinas, compostas por proteínas
da ordem de um bilionésimo de metro, podem ser um exemplo dela. O tamanho cada vez
menor dos microchips é também responsável pelo despertar desse reino de blocos de
construções básicos da matéria, governado por átomos e moléculas. Apesar dos vários
obstáculos que a diminuição do dispositivo enfrenta como o de ter que aumentar a velocidade
de processamento de informações adicionando mais e mais componentes eletrônicos, soluções
baseadas na mecânica quântica são propostas. Trata-se de um ramo da física que estuda o
comportamento dos pequenos "tijolos" da matéria como os elétrons, os prótons e os nêutrons.
Atualmente, pode-se construir nanotubos de carbono, espécie de "rede" de átomos de carbono
que formem uma estrutura bem estável, com relevantes aplicações industriais, como na
fabricação de microchips. Mas, uma das grandes promessas é a utilização de computadores
quânticos, que têm a capacidade de processar as informações a velocidades muito, mais muito
superiores que as utilizadas hoje.
Slide 6

Como podemos perceber, os avanços que vem ocorrendo desde o início são no sentido de
aperfeiçoar a capacidade da máquina de processar informações.
E você, sabe que "língua" o computador entende?

Um computador digital se utiliza de elementos que, agrupados em um tamanho pré-


estabelecido, são interpretados e geram um caractere. Esses elementos recebem o nome de
bit. Bit, que significa dígito binário, é um elemento que pode representar duas formas de um
componente eletrônico, por exemplo. Assim, esse componente pode estar ligado ou desligado.
Esses dois estados, então, são representados por dois algarismos:
Para se produzir letras, números e símbolos são necessários um conjunto de Bits. Esse
conjunto, chamado de byte (termo binário) pode ser formado por 8, 16, 32 ou 64 bits que
dependem da máquina que se utiliza e seu sistema operacional. Assim, se um computador
digital consegue processar 32 bits, é porque consegue entender uma sequência de 32
algarismos, que variam entre 0 e 1. Essa sequência é seu termo binário, ou seja, 1 byte.
Inicialmente, os computadores trabalhavam com 8 bits. Depois, passaram para 16, 32 e os de
64 bits. E quanto maior o número de bits que um computador é capaz de interpretar, maior é a
sua velocidade de processar informações.

Pode-se considerar que um byte equivale a um caractere. Assim, um caractere pode ser
formado por uma sequência de 8, 16, 32 e 64 bits. Pensando em 8 bits, podemos representar a
letra A, por exemplo, pela sequência 11000001. Essa sequência forma um termo binário, um
byte. Seguindo essa linha de raciocínio, convenciona-se que 1024 bytes equivalem a 1 Kbyte
(KB). 1 MByte (MB), por sua vez, é constituído por 1024 Kbytes, 1GByte (GB) é formado por
1024 MBytes, e assim por diante.

Slide 7

Antes de seguir para a última temática desse material, que tal mais uma parada para exercitar
um pouco o que leu nos últimos tópicos?

Complete a lacuna que aparece em cada questão, com um dos blocos de palavras da lista de
opções. Para isso, basta clicar no link que aparece em cada questão e selecionar a opção
correta.

Boa sorte!
Side 8

Tecnologia e dispositivos móveis:


Democratização da informação e comunicação

As possibilidades de alcance e de execução de inúmeras atividades cada vez mais complexas,


que as tecnologias existentes hoje ou em desenvolvimento apresentam, chegam a nos deixar
perplexos. Veja, por exemplo, esse fragmento de uma reflexão publicada em 2014:
Já imaginou, então, daqui a alguns poucos anos, que tecnologias você, eu, todos nós teremos
a nossa disposição? E o que poderá ser feito com essas tecnologias?

Para pensarmos um pouco mais a esse respeito, podemos tomar como referência também a
Lei de Moore. Essa Lei, tida como uma "profecia" em 1965, trata-se das observações que
Gordon E. Moore fez sobre o desenvolvimento e o futuro do hardware. Com base na
velocidade com que a tecnologia avançava, ele fez previsão de que o número de transistores
em um chip teria um aumento de 100%, a cada período de 18 meses.
Em 2001, essa Lei foi ampliada por Ray Kurzweil ao afirmar que "sempre que uma tecnologia
encontra um tipo de barreira que interrompe ou desacelera seu desenvolvimento, surge uma
outra tecnologia que rompe com essa barreira." Ele acredita que, por volta de 2045, a
humanidade deve atingir a singularidade tecnológica, ou seja, um crescimento tecnológico da
super inteligência artificial que ocasionará mudanças irreversíveis na civilização humana. De
maneira bastante simples, podemos dizer que o que Kurzweil prevê é que poderá ocorrer, por
exemplo, reações desenfreadas de um agente inteligente atualizável, de forma que esse
agente seja capaz de se auto-aperfeiçoar. De forma mais sintética, é dizer que a inteligência
artificial passa a superar a humana.
Além de impulsionar os

Além de impulsionar os estudos de Kurzweil, essa observação de Moore se tornou um dos


objetivos das indústrias de semicondutores que investiram muitos recursos no desenvolvimento
de hardware e com custos cada vez mais acessíveis.

Hoje, além de parâmetro para a unidade central de processamento (CPUs), a Lei de Moore
funciona também como parâmetro para diversos dispositivos digitais, até mesmo para o
dispositivo de carga acoplada de câmeras fotográficas digitais, o CCD (charge-coupled device)
que é um sensor semicondutor para captação de imagens formado por um circuito integrado.

Claro que após essas observações destacadas nos parágrafos anteriores, vários estudos vêm
revelando o que tem ocorrido com os avanços tecnológicos e também fazem outras projeções
futuristas nesse sentido.

No entanto, quando nos deparamos com reflexões como as de Kurzweil, de que a inteligência
humana pode ser superada pela artificial, muitas questões nos inquietam, como: Isso será
mesmo possível? Que consequências podem trazer?
Alguns teóricos observam que, se seguirmos nessa linha das projeções, conforme comentamos
há pouco, a única certeza que podemos ter é que a tecnologia será, nos próximos tempos,
centenas de milhares de vezes mais avançadas do que é hoje. Podemos considerar como
sinalizadoras desses avanços, as tecnologias conhecidas como vestíveis - ou em inglês
gadgets - como relógios e pulseiras que monitoram atividades físicas, óculos interativos, entre
outros. E que pode ocorrer também a incorporação de aplicativos de realidade aumentada em
diferentes situações, provocando assim mudanças significativas no cotidiano da população.
Entretanto, precisamos estar atentos, pois enquanto por um lado todo esse desenvolvimento
tecnológico possibilita a resolução de muitos problemas, por outro ele também pode criar vários
outros.

Slide 9

Destaque!
Nesse universo, uma coisa é certa: a Tecnologia da Informação e Comunicação (TIC) -
recursos tecnológicos e computacionais utilizados para a produção e circulação de informações
e conhecimentos - pode representar as alternativas que temos de potencializarmos nossas
possibilidades de aprendizagem, de construção de saberes e de nos prepararmos,
constantemente, para a realidade que se apresenta.
Vale observarmos, por exemplo, que o uso da tecnologia e o que ela representa na sociedade
contemporânea tem sido objeto de estudos e debates em diferentes segmentos e recebido
alguns títulos como de sociedade:

 pós-industrial;
 pós-moderna;
 da informação;
 do conhecimento econômico;
 da revolução da informação;
 do capitalismo da informação, entre outros.

Assim, o cenário que se apresenta é o de um 'mundo digital' em que as pessoas, tanto na vida
pessoal quanto na profissional, buscam encaminhamentos e soluções ágeis para as mais
diferentes situações. Por outro lado, esse contexto pode ser responsável também por
problemas, como grandes diferenças sociais que ocorrem entre pessoas, empresas, países,
etc.

Além do uso das diferentes ferramentas para o acesso às informações difundidas, é necessária
a efetiva participação da população das diferentes regiões nesse mundo digital. Pois, inclusão
digital pressupõe também a possibilidade de criação e difusão da própria produção intelectual,
visando não somente a democratização de uso da tecnologia mas, em especial, da produção e
disseminação de experiências e conhecimentos.

E, novamente, vale um destaque, de que essa possibilidade por si só é percebida como um


desafio e pode ser potencializada em países que ainda vivem em busca de ações para
superarem questões básicas como o acesso da população à educação, o combate à pobreza,
entre outras.

E, novamente, vale um destaque, de que essa possibilidade por si só é percebida como um


desafio e pode ser potencializada em países que ainda vivem em busca de ações para
superarem questões básicas como o acesso da população à educação, o combate à pobreza,
entre outras.
De um lado, o que de grandioso se vislumbra com os avanços tecnológicos, de outro, a
preocupação de que alguns países menos favorecidos sejam ou passem a ser dependentes
dos países mais favorecidos.

Observamos, no entanto, que esses apontamentos têm como finalidade destacar mais uma vez
que nesse universo existem vantagens e desvantagens e que elas precisam ser lembradas,
discutidas e estudadas, em especial, nos meios acadêmicos.

Então leia, pense e leve suas dúvidas e inquietações para as conversas com amigos, familiares
e, principalmente, para os debates nos espaços de interação e comunicação de seu curso.
Aproveite bem esse momento que pode ser bastante rico em vários sentidos!

Bons estudos!

E vamos à atividade final.

Slide 10

Atividade

Para resolver as 15 questões que compõem a atividade a seguir, leia com atenção cada
questão, reflita sobre o que leu e responda. Quando terminar, confira o gabarito e veja o que
você acertou e também o que necessita de mais leitura!

Boa sorte!
Referências

 CÁDIMA, F. (2009) A concentração dos media, o pluralismo, e a experiência


democrática. In: CARDOSO, G.; CÁDIMA, F. & CARDOSO, L. (Orgs). (2009) Media,
redes e comunicação, Lisboa: Quimera.

 CASTELLS, Manuel. A era da informação: economia, sociedade e cultura. In: A


Sociedade em rede. São Paulo : Paz e Terra, 2000. v. 1.
 KUROSE, J. F., Ross, K. W. (2003) Redes de Computadores e a Internet Uma Nova
Abordagem, 1ª Edição. São Paulo: Addison Wesley, 2003.

 LEMOS, A. Cibercultura. Tecnologia e Vida Social na Cultura Contemporânea.,


Sulina, Porto Alegre., 2002.

 LÉVY, Pierre. As tecnologias da inteligência: o futuro do pensamento na era da


informática. Tradução de Carlos Irineu da Costa. Rio de Janeiro: Editora 34,1993.

 Qualificação em Tecnologia Digital: Aluno Integrado. Curso produzido e ofertado pelo


Laboratório de Tecnologia da Informação e Mídias Educacionais - LabTIME/UFG.

 RANGEL, A. (2003) O Brasil precisa é de inclusão social,


http://www.socid.org.br/artigos_brasil-is.htm, em 12 dez. 2017.

 WERTHEIN, J. A sociedade da informação e seus desafios. Disponível em:


http://www.scielo.br/pdf/ci/v29n2/a09v29n2.pdf. Acessado em 15 jan. 2018.

 https://revistagalileu.globo.com/Tecnologia/noticia/2014/07/evolucao-tecnologica-como-
sera-nossa-vida-daqui-20-anos.html. Acessado em 15 jan. 2018.

Fim