Você está na página 1de 168

Identifique sua apostila

Nome: __________________________________

Turma: _______________

FPD
1º Bimestre

Curso Informática. Turmas 71A, 71B,


71C.

Profª Ariane Scarelli

2017
SUMÁRIO

1 INTRODUÇÃO ......................................................................................................................... 1
1.1 HISTÓRICO - Desenvolvimento dos Computadores ................................................ 1
2 GERAÇÕES DOS COMPUTADORES ................................................................................ 2
2.1 Primeira Geração ............................................................................................................ 2
2.2 Segunda Geração ........................................................................................................... 4
2.3 Terceira Geração ............................................................................................................ 5
2.4 Quarta Geração ............................................................................................................... 7
2.5 Quinta Geração ............................................................................................................. 11
2.6 Sexta Geração ............................................................................................................... 12
3 CLASSES ................................................................................................................................ 16
3.1 Supercomputador .......................................................................................................... 16
3.2 Servidor Corporativo/Data Center .............................................................................. 17
3.3 Minicomputador ............................................................................................................. 18
3.4 Microcomputador ........................................................................................................... 19
3.5 Notebook, Netbook e Ultrabook .................................................................................. 20
3.6 Handheld e Tablet ......................................................................................................... 21
4 INTERNET – Histórico e Desenvolvimento ....................................................................... 23
5 CONFIGURAÇÃO DOS COMPUTADORES .................................................................... 25
5.1 Configuração da Memória Principal ........................................................................... 25
5.1.1 Memória RAM (Random Access Memory)................................................................ 25
5.1.2 Memória ROM (Read Only Memory) ......................................................................... 27
5.2 Memória Auxiliar ............................................................................................................ 28
5.3 Unidades de Medida Computacional ......................................................................... 29
5.4 Unidade Central de Processamento (CPU) .............................................................. 31
5.4.1 Unidade de Controle (UC) ........................................................................................... 31
5.4.2 Unidade Lógica e Aritmética (ULA) ............................................................................ 31
5.4.3 Outros componentes .................................................................................................... 32
5.5 Unidades de Entrada e Saída de Dados ................................................................... 32
6 CARREIRAS E PROFISSÕES ............................................................................................ 34
6.1 Especialista em Cloud Computing.............................................................................. 34
6.2 Gestor em Big Data ...................................................................................................... 34
6.3 Administração de Banco de Dados ............................................................................ 35
6.4 Administração de Redes .............................................................................................. 35
6.5 Arquitetura de Informação ........................................................................................... 36
6.6 E-commerce ................................................................................................................... 36
6.7 Processamento de Dados............................................................................................ 37
6.8 Programação.................................................................................................................. 37
6.9 Qualidade do Software ................................................................................................. 38
6.10 Segurança da Informação............................................................................................ 38
6.11 Sistemas ......................................................................................................................... 38
6.12 Suporte Técnico em Informática ................................................................................. 39
6.13 Gerência de Projetos de TI .......................................................................................... 39
6.14 Desenvolvimento Web.................................................................................................. 40
7 INTRODUÇÃO AO SOFTWARE......................................................................................... 41
7.1 Conceitos de Linguagens de Programação .............................................................. 41
7.2 Gerações das Linguagens ........................................................................................... 41
7.2.1 Primeira Geração .......................................................................................................... 42
7.2.2 Segunda Geração ......................................................................................................... 42
7.2.3 Terceira Geração .......................................................................................................... 42
7.2.4 Quarta Geração ............................................................................................................. 43
7.2.5 Quinta Geração ............................................................................................................. 43
7.3 Nível das Linguagens ................................................................................................... 44
7.4 Linguagens Tradutoras ................................................................................................ 45
7.4.1 Compiladores ................................................................................................................. 45
7.4.2 Interpretadores .............................................................................................................. 46
8 REFERÊNCIAS ...................................................................................................................... 47
9 SITES ÚTEIS/INTERESSANTES ....................................................................................... 48
10 APÊNDICES ........................................................................................................................... 50
APÊNDICE A – Família de processadores Intel.................................................................... 50
11 ANEXOS ................................................................................................................................. 52
ANEXO A – Entrevista: Raymond Kurzweil (Seremos todos cyborgs).............................. 52
ANEXO B – Revelados os empregos do futuro ..................................................................... 56
ANEXO C – Os efeitos danosos da overdose de informação............................................. 58
ANEXO D – IBM se prepara para duelo entre homem e máquina ..................................... 60
ANEXO E – Internet alcança marca de 2 bilhões de usuários no mundo, diz ONU ....... 62
ANEXO F – Programação: Como escrever um código limpo? ........................................... 64
ANEXO G – Depois do controle remoto ................................................................................. 67
ANEXO H – Cientistas criam o menor transistor do mundo: um átomo ............................ 70
ANEXO I – Tablets e notebooks chegam mais perto de extinguir PC de mesa .............. 71
ANEXO J – Quer ganhar mais? Seja um craque de TI ........................................................ 74
ANEXO K – Quais as diferenças entre Notebook e Ultrabook? ......................................... 77
ANEXO L – Internet: 25 anos do WWW ................................................................................. 80
ANEXO M – Computador pessoal faz 33 anos. Conheça a história do IBM PC ............. 83
ANEXO N – Entendendo os SSDs .......................................................................................... 94
ANEXO O – ‘Nômades digitais’ trocam rotina por vida de viagens e trabalho online ... 101
ANEXO P – Até quando o padrão será trabalhar das 8 às 18h? ..................................... 107
ANEXO Q – O que é Big Data? ............................................................................................. 115
ANEXO R – Tudo Conectado: Conceitos e Representações da Internet das Coisas .. 124
ANEXO S – Tabela de processadores: Intel ........................................................................ 139
ANEXO T – O que é Li-Fi e como funciona ......................................................................... 156
ANEXO U – Por dentro do universo sombrio da Deep Web [infográfico] ....................... 160

Material didático desenvolvido por Ariane Scarelli, Profª MSc.

v2017.1.0

Todos os direitos reservados e protegidos por Lei de Direito


Autoral, de 19/02/1998, artigo 7º. Nenhuma parte desse
material poderá ser reproduzida ou transmitida sem citação
de autoria.
1 INTRODUÇÃO

As Tecnologias da Informação e Comunicação (TICs) estão presentes na vida das pessoas em


todas as partes do mundo. Os avanços da computação trouxeram computadores mais potentes e
softwares mais amigáveis e intuitivos, modernos recursos de redes e ambientes web deram suporte
à implantação de uma pedagogia para formação dos educandos com desenvolvimento de habilidades
essenciais para a sociedade do conhecimento, inclusive a distância. Formar profissionais mais
flexíveis e capazes de enfrentar os desafios impostos pelos novos tempos faz parte do cotidiano das
escolas hoje.

1.1 HISTÓRICO - Desenvolvimento dos Computadores

Pesquisa sobre diversos tópicos históricos: serão apresentados temas para pesquisa e
apresentação em laboratório.

ENIAC, primeiro computador digital eletrônico da história e algumas de suas programadoras.

Figura 1 – Programadoras do ENIAC


Fonte: http://www.computerhistory.org/revolution/birth-of-the-computer/4/78/317

Profª Ariane Scarelli FPD 1


O ENIAC era composto de mais de 18 mil válvulas.

Figura 2 – Substituição de válvula do ENIAC


Fonte: http://www.computerhistory.org/revolution/birth-of-the-
computer/4/78/325

2 GERAÇÕES DOS COMPUTADORES

Os computadores são classificados em gerações em função da tecnologia e da arquitetura


empregadas em sua construção.

2.1 Primeira Geração

▫ Período: década de 1950;


▫ Componente básico: válvulas;
▫ Armazenamento: cartões perfurados (Figura 3);
3
▫ Cálculos feitos em vários milissegundos (milésima parte do segundo ou 10 seg.);
▫ Baixa confiabilidade;
▫ Dimensões muito grandes exigindo Km de fios para as ligações;
▫ Consumo elevado de energia elétrica resultando no aumento exagerado de temperatura
(até 67° C), exigindo dispendiosos sistemas de refrigeração;
▫ Execução sequencial de tarefas  uma por vez. Ex.: enquanto se estivesse realizando a
leitura de cartões perfurados, as outras unidades estavam paradas;

Profª Ariane Scarelli FPD 2


▫ Programação em linguagem de máquina;
▫ Manutenção cara e complicada;
▫ Linha do tempo: em 1951 o primeiro computador comercial, UNIVAC I, foi utilizado pela
agência norte americana de recenseamento (
▫ Figura 4).

Figura 3 – Cartão perfurado de Herman Hollerith de 1895

Figura 4 – UNIVAC I

Profª Ariane Scarelli FPD 3


2.2 Segunda Geração

▫ Período: década de 1960;


▫ Componente básico: transistor (componente eletrônico de silício, inventado em 1947 por
John Bardeen e Walter Houser Brattain);
▫ Armazenamento: fita magnética;
▫ Aumento da velocidade  cálculos feitos em microssegundos (milionésima parte do
6
segundo ou 10 seg);
▫ Diminuição do tamanho;
▫ Execução de tarefas em lotes (em batch), em um mesmo programa  a entrada/saída de
dados era feita através de blocos de tarefas separados e repassados para um computador
auxiliar, onde estas tarefas eram processadas uma por vez, liberando o computador
principal para a execução de cálculos puros; assim os resultados, consequentemente os
possíveis erros, só eram conhecidos após o final do processamento;
▫ Programação em linguagem montadora (ASSEMBLY);
Exemplo de código Assembly (8088): programa que recebe um número e escreve a
tabuada de 1 a 10 para este valor.

Trecho de programa equivalente em linguagem C:

Profª Ariane Scarelli FPD 4


A linguagem Assembly é utilizada até hoje, “mas em vez de ser utilizada para softwares
ou sistemas operacionais, é mais frequente nas fábricas de componentes de hardware,
por trabalhar com instruções mais diretas” (Tecmundo1).
▫ Linha do tempo: em 1965 a DEC introduziu o PDP-8, o primeiro minicomputador
comercializado com sucesso (Figura 5).

Figura 5 – Minicomputador PDP-8 da DEC

2.3 Terceira Geração

▫ Período: década de 1970;


▫ Componente básico: circuito integrado (circuito eletrônico com milhares de transistores
conectados em um único chip, criado por Jack Kilby, da Texas Instruments, em 1958);
▫ Armazenamento: discos magnéticos;
▫ Aumento da velocidade  cálculos feitos em nanossegundos (bilionésima parte do
9
segundo ou 10 seg);
▫ Diminuição do tamanho que propiciou o surgimento dos microcomputadores;
▫ Aumento da confiabilidade;

1
Disponível em: http://www.tecmundo.com.br/infografico/9421-a-evolucao-dos-computadores.htm. Acesso em fev. 2015.

Profª Ariane Scarelli FPD 5


▫ Execução simultânea de vários programas em um único computador por
compartilhamento do tempo do processador;
▫ Programação em linguagem de alto nível (próximas à humana. Ex.: COBOL2, FORTRAN3,
BASIC4);
▫ Surgimento do teleprocessamento  processamento de dados à distância (através de
terminais remotos), usando recursos de telecomunicações (transmissão por linhas
telegráficas, telefônicas, microondas, satélites, fibras óticas etc.);
▫ Linha do tempo: em 1971 surgiu o primeiro microcomputador comercializado, o Kenbak-1
(Figura 7). Em 1974 a Xerox lançou o Alto, primeira estação de trabalho com um mouse
para entrada de dados (Figura 9). Em 1975 surgiu o primeiro kit de computador com um
processador baseado no Intel 8080, chamado Altair 8800, cuja linguagem de programação
utilizada era o BASIC, licenciada por Bill Gates e Paul Allen (Figura 6). Em 1976 Steve
Wozniak e Steve Jobs lançaram o Apple I e iniciaram suas atividades empresariais (Figura
8).

Figura 7 – Kenbak 1 Figura 6 – Altair 8800

2
Common Business Oriented Language (COBOL) foi desenvolvido a partir de 1960.
3
FORmula TRANslator foi desenvolvido a partir de 1957.
4
Em 1964, Thomas Kurtz e John Kemeny criaram o BASIC para seus alunos da faculdade de Dartmouth (New
Hampshire, Estados Unidos).

Profª Ariane Scarelli FPD 6


Figura 9 – Xerox Alto Figura 8 – Apple I

2.4 Quarta Geração

▫ Período: década de 1980;


▫ Componente básico: CI-LSI  circuito integrado em larga escala;
▫ Aumento da velocidade  cálculos feitos em 0,5 nanossegundo;
▫ Miniaturização;
▫ Surgimento da linha PC (Personal Computer) da IBM;
▫ Uso de redes de computadores5:

5
Imagens de LAN, MAN, WAN, PAN, SAN. Disponível em: http://pplware.sapo.pt/tutoriais/networking/lan-man-wan-pan-
san-%E2%80%A6-sabe-a-diferenca/. Acesso em fev. 2015.

Profª Ariane Scarelli FPD 7


o LAN (Local Area Network)

Figura 10 – Rede LAN

o MAN (Metropolitan Area Network)

Figura 11 – Rede MAN

Profª Ariane Scarelli FPD 8


o WAN(Wide Area Network)

Figura 12 – Rede WAN

o PAN (Personal Area Network)

Figura 13 – Rede PAN

Profª Ariane Scarelli FPD 9


o SAN (Storage Area Network)

Figura 14 – Rede SAN

▫ Comercialização de CDs a partir de 1982;


▫ Linha do tempo: em 1981 a IBM lança o primeiro PC com velocidade de 4,77 MHz,
processador Intel 8088 e sistema operacional MS-DOS (Figura 16). No mesmo ano, Adam
Osborne lançou o Osborne I, primeiro computador portátil (Figura 17). Em 1984 a Apple
lançou o Macintosh, o primeiro microcomputador com mouse e interface gráfica com o
usuário que fez sucesso (Figura 15). Em 22 de maio de 1990 a Microsoft lançou o Windows
3.0 (Figura 18), a primeira versão de sucesso.

Figura 15 – Apple Macintosh


Figura 16 – IBM Personal Computer

Profª Ariane Scarelli FPD 10


Figura 17 – Osborne I Figura 18 – Windows 3.0

2.5 Quinta Geração


▫ Período: década de 1990;
▫ Componente básico: CI-VLSI  circuito integrado em escala muito larga;
▫ No Japão: uso de linguagem natural (leia o ANEXO G – Depois do controle remoto.),
inteligência artificial (leia o ANEXO A – Entrevista: Raymond Kurzweil (Seremos todos
cyborgs)), robótica e tratamento de imagens;
▫ Linguagens de altíssimo nível;
▫ Criação dos DVDs no final da década  popularização somente após o ano 2000;
▫ Picossegundos (10-12 seg).
▫ Linha do tempo: em 1991 o estudante universitário Linus Torvalds liberou o Linux para
usuários da Usenet (rede que fornece serviços a grupos de discussão através da Internet).
Em 1992 o Linux tornou-se um software livre ou de código aberto (open source). Em 1993
o processador Pentium da Intel é liberado. No mesmo ano surgiu o Mosaic, primeiro
navegador (browser) gráfico da Internet (Figura 19).

Figura 19 – Tela do navegador Mosaic

Profª Ariane Scarelli FPD 11


2.6 Sexta Geração

▫ Período: década de 2000 (?);


▫ Microprocessadores de múltiplos núcleos – os primeiros eram “processadores que
simulavam a existência de dois núcleos de processamento, depois os que realmente
apresentavam dois deles. Hoje, há processadores que apresentam quatro núcleos, e
outros, utilizados por servidores, que já oferecem oito” (Tecmundo6);
▫ Armazenamento em Pen Drive, Blu-Ray e SSD:
o Pen Drive (Pendrive ou USB Flash Drive) é um dispositivo portátil com memória
eletrônica do tipo Flash (EEPROM) acessível por uma porta USB, de tamanho
semelhante ao de uma caneta, daí a origem do nome pen (caneta em inglês).
Surgiu no ano 2000, criado pelo israelense Dov Moran, com a finalidade de
substituir discos flexíveis e CDs, ambos com partes móveis em seus drives que
levam à perda de velocidade. Um pen drive não contem partes móveis, é
totalmente eletrônico. Não é afetado por campos magnéticos, como ocorre com os
discos magnéticos (flexíveis e rígidos). É compacto, rápido e com grande
capacidade de armazenamento. Leitura complementar: ANEXO N – Entendendo
os SSDs.
o O Blu-Ray, com capacidades que variam de 25 GB a 50 GB, é o sucessor do DVD.
O feixe de laser usado para leitura é menor que o do DVD possibilitando armazenar
maior quantidade de dados. O nome deve-se ao feixe de luz do leitor ótico de cor
violeta azulada. Foi introduzido no mercado no ano de 2006.
o O SSD (solid state drive) – uma evolução do disco rígido (HD ou HDD) construído
sem partes móveis, como o cabeçote de leitura/gravação do HD, e com sistema
de armazenamento não magnético. Nada é mecânico no seu funcionamento, o
armazenamento é feito em um ou mais chips de memória. O SSD é menor, mais
leve que o HD, tem baixo consumo de energia e grande velocidade de operação.

6
Disponível em: http://www.tecmundo.com.br/infografico/9421-a-evolucao-dos-computadores.htm. Acesso em fev. 2015.

Profª Ariane Scarelli FPD 12


Figura 20 – Visão de dispositivos HDD e SSD

▫ Computação móvel – é o acesso à informação em qualquer tempo e local, o que envolve


tecnologias de comunicação sem fio. Os dispositivos comuns utilizados são
celulares/smartphones, PDAs, navegadores dos automóveis, robôs, etc., que têm
funcionalidades semelhantes às dos microcomputadores;
▫ Computação em nuvem (cloud computing): é uma tecnologia que permite aos usuários
hospedar, gerenciar e processar os dados na Internet de qualquer lugar do planeta e por
meio de vários dispositivos. É fornecido como um serviço sob demanda, com
processamento centralizado, tendo como objetivo envolver todas as pessoas, desde o
usuário final que hospeda documentos na Internet (exemplos: Google Drive, Dropbox,
iCloud, OneDrive) até organizações que terceirizam a infraestrutura de TI.
▫ Computação distribuída – segundo o IBM knowledge center7
um sistema de computadores distribuídos consiste em vários
componentes de software em vários computadores, mas executados
como um sistema único. Os computadores em um sistema distribuído
podem estar fisicamente próximos e conectados por uma rede local ou
podem estar geograficamente distantes e conectados por uma rede
remota. Um sistema distribuído pode consistir em uma série de
configurações possíveis, como mainframes, computadores pessoais,
estações de trabalho, minicomputadores e assim por diante. A meta da
computação distribuída é fazer um trabalho de rede como um
computador único.

Figura 21 – Computação distribuída

7Disponível em: http://www-01.ibm.com/support/knowledgecenter/SSAL2T_6.2.0/com.ibm.cics.tx.doc/conc/distr-


comp.html?lang=pt-br. Acesso em fev. 2015.

Profª Ariane Scarelli FPD 13


▫ Realidade aumentada – tecnologia que permite trazer ao ambiente real objetos virtuais
com o intuito de agregar informações, realçar características e aumentar a percepção do
real. É considerada o futuro da Internet. Segundo o site TecMundo8,
o software de Realidade Aumentada é programado com imagens,
sinais ou ações pré-definidas e as respostas que deverão ser dadas a
elas. Quando o programa recebe essas informações, ele as interpreta
e exibe a resposta, que pode ser desde uma simples forma geométrica
até objetos mais complexos, como animais que reagem a um carinho
na barriga.

▫ Big Data – é o uso da tecnologia para lidar com um grande volume de dados digitais e
desestruturados que circula na Internet, em tempo real. O principal objetivo é produzir
relatórios que auxiliem os gestores na tomada de decisão empresarial. Diariamente
milhões de Tweets, posts no Facebook, vídeos publicados no YouTube, revelam o
comportamento das pessoas e a maneira como elas pensam. Ao analisar essa massa de
dados desestruturados com os recursos de Big Data é possível obter Informações que
podem ajudar uma empresa em como melhorar seu produto, produzir mais, evitar
desperdícios, oferecer mais qualidade nos serviços prestados ao cliente. Leia o ANEXO
Q – O que é Big Data?” para saber mais a respeito.

Figura 22 – Exemplos de uso dos recursos de Big Data

8Disponível em: http://www.tecmundo.com.br/realidade-aumentada/2124-como-funciona-a-realidade-aumentada.htm.


Acesso em fev. 2015.

Profª Ariane Scarelli FPD 14


 Curiosidade
Uma comparação sobre a capacidade de armazenamento e o preço de um computador básico, entre
os períodos de 2000 e 20099: no ano 2000, a capacidade de armazenamento de um computador
básico era 10 GB, enquanto seu preço médio era de R$ 2.300,00; em 2009, a capacidade média de
armazenamento registrada foi de 320 GB e o preço médio, R$ 1.000,00.

9 Revista Superinteressante, ed. 274, jan./2010, p. 56-57

Profª Ariane Scarelli FPD 15


3 CLASSES

Os computadores são classificados de acordo com sua capacidade de processamento,


memória e velocidade, são apresentados em vários tamanhos e com diferentes recursos. Os termos
que descrevem as classes diferentes de computadores já existem há algum tempo, embora os
recursos de cada classe estejam em constante alteração.

3.1 Supercomputador

Desenvolvido para aplicações específicas que envolvem dados com cálculos


extremamente complexos e que exigem exatidão e muita rapidez no processamento. São baseados
em processamento paralelo, onde duas ou mais instruções podem ser processadas ao mesmo
tempo. Ex.: pesquisas espaciais, meteorológicas, em física nuclear, nas áreas militar e de segurança,
genética.
Apresenta a maior capacidade de armazenamento e velocidade de operação, se
comparado às demais classes de computadores. O tempo de operação é medido a partir de
picossegundos (10-12 segundos) e a velocidade é medida em gigaflops ou teraflops.
Segundo a Wikipédia,
em computação, FLOPS (ou flops) é um acrônimo que significa
FLoating point Operations Per Second que, em português, quer dizer
operações de ponto flutuante por segundo. Isto é usado para
determinar a performance de um computador, especificamente no
campo de cálculos científicos, que fazem grande uso de cálculos com
ponto flutuante; similar a instruções por segundo. Repare que o S no
final o distingue da palavra em inglês, que tem outro significado, pois
esse S é a definição de segundos e não significa que esteja no plural.

Um gigaflop é igual a um bilhão de operações com ponto flutuante por segundo;


cálculos com ponto flutuante não utilizam número predeterminado de casas decimais, deixando que
o ponto “flutue” conforme necessário para considerar todos os dígitos significativos de um número.
O preço de um supercomputador é dado em milhões de dólares.
Dois dos maiores fabricantes são a Cray Supercomputers e a IBM.

Exemplos: Cray YMP, Conection Machine CM-5, NEC SX-3R, Intel Touchstone Delta,
IBM BlueGene, DeepBlue (que jogou xadrez com Kasparov). Leia o ANEXO D – IBM se prepara
para duelo entre homem e máquina.

Profª Ariane Scarelli FPD 16


Figura 23 – Supercomputador Titan

3.2 Servidor Corporativo/Data Center

Computador de grande porte e desempenho que armazena os dados de forma


centralizada e faz o processamento de milhões de transações diariamente para uma empresa inteira.
Surgiu no final da década de 1950 com o nome mainframe10. Tem capacidade de armazenamento e
velocidade de operação maiores que as do micro e minicomputador. É um computador multiusuário,
projetado para atender às necessidades em TI das grandes empresas como indústrias e bancos, com
quantidades maciças de informações de entrada, saída e armazenamento.
Um dos principais fabricantes é a IBM.

10
Originalmente, mainframe referia-se ao gabinete que alojava a CPU, por associação o termo passou a ser aplicado aos
computadores de grande porte desenvolvidos no final dos anos 1950.

Profª Ariane Scarelli FPD 17


Figura 24 – Visão parcial de um Data Center

3.3 Minicomputador

Equipamento orientado para atividades comparáveis às do servidor corporativo, mas


em grau de complexidade menor. É um termo raramente usado. Surgiu por volta da década de 1960
e tem capacidade de armazenamento e velocidade de operação maiores que as do microcomputador,
porém inferiores as do mainframe. É um computador multiusuário usado em empresas médias. Este
tipo de equipamento é chamado de servidor intermediário (midrange). Pode ser utilizado como
servidor de redes e de internet.
Pode custar alguns milhares de dólares.
Os principais fabricantes são a DEC, Data General, IBM e Hewlett-Packard (HP).

Figura 25 – Minicomputador

Profª Ariane Scarelli FPD 18


3.4 Microcomputador

Equipamento de computação eletrônica de menor porte, com versões destinadas a


aplicações pessoais ou a várias atividades nas empresas. O chamado desktop surgiu na década de
1980, projetado pela IBM. Sua CPU está integrada em um microprocessador.
É um computador multiusuário que devido à facilidade de operação e programação e
ao baixo custo, é amplamente usado para fins domésticos, daí o termo computador pessoal (Personal
Computer - PC).
Sua evolução tecnológica e a possibilidade de ser ligado em rede, aliado ao baixo
custo têm levado as empresas a substituírem os computadores de maior porte pelos
microcomputadores (downsizing);
Alguns fabricantes de computadores pessoais: Lenovo, Asus, Apple, Dell, HP, Sony,
Acer.
Leia também o artigo no

Profª Ariane Scarelli FPD 19


ANEXO M – Computador pessoal faz 33 anos. Conheça a história do IBM PC.

3.5 Notebook, Netbook e Ultrabook

Notebooks, netbooks e ultrabooks são computadores pessoais móveis sustentados


por uma bateria, mas que também podem ser conectados a uma tomada de energia elétrica.
Os notebooks, que também podem ser chamados de laptops, surgiram na década de
1980 (no ano 1981), mas se popularizaram na década de 1990. Têm tamanho geralmente menor que
o de uma pasta executiva, pesam menos de 4 quilogramas e sua espessura é inferior a 3 polegadas.
No passado, custavam muito mais caros que os desktops, atualmente, os preços são praticamente
equivalentes.
Os netbooks, lançados em 2007 e descontinuados em final de 2012, eram menores,
mais leves e mais baratos que os notebooks. Equipados com menos recursos (sem drive de DVD/CD,
tela e teclado menores e menor poder de processamento), para executar tarefas da maioria dos
usuários de computadores, como, navegar na internet, executar planilhas de cálculos e
processadores de textos. Tinham telas menores que 12 polegadas e pesavam de 500 a 1200 gramas.
Sua popularização deu-se a partir de 2008.
Os ultrabooks são um tipo de notebook ultrafino lançado em 2011, com tecnologia Intel
para concorrer com o MacBook Air da Apple. A fabricante de processadores Intel deu o empurrão
necessário para essa categoria de computadores portáteis que são mais leves e finos, têm bateria
de longa duração e melhor desempenho. Os ultrabooks geralmente tem o HD (hard disk) substituído
pelo SSD (solid-state drive), que é um tipo de memória parecida com a utilizada nos pendrives. Isto
reduz o peso, a espessura e dá ao equipamento maior velocidade, porém torna-o mais caro. Alguns
fabricantes optam por uma pequena quantidade de SSD, apenas para armazenar o sistema
operacional e garantir uma rápida inicialização e finalização e rápido retorno de hibernação. O
restante do espaço de armazenamento permanece em HD convencional. Outra característica desse
dispositivo é a ausência de drive de CD/DVD, assim como ocorre com os netbooks. Segundo a Intel,
os ultrabooks são máquinas projetadas para preencher uma lacuna existente entre os notebooks e
os tablets.

Todos os modelos de computadores portáteis mencionados neste tópico podem ser


facilmente transportados e usados em locais de acomodação temporária como aviões, restaurantes,
cafés, bibliotecas, escolas, encontros de negócios. Podem ser conectados a todo tipo de periférico e
ligados em rede.

Profª Ariane Scarelli FPD 20


Alguns fabricantes são: IBM, Apple, Dell, Toshiba, HP, Sony, Acer, Asus, Lenovo.
Leia os artigos: ANEXO I – Tablets e notebooks chegam mais perto de extinguir PC
de mesa; ANEXO K – Quais as diferenças entre Notebook e Ultrabook?

3.6 Handheld e Tablet

Em 1992 a Palm Computing lançou o Zoomer, seu primeiro modelo de handheld,


também conhecido como PDA (personal digital assistant), computador de mão (palmtop) que pode
ser guardado em um bolso devido sua reduzida dimensão. Existem modelos de handheld com teclado
real, virtual e com um sistema gráfico de escrita dos caracteres chamado Graffiti (Palm OS). Há
modelos que integram celular e computador e são chamados smartphones. Foram projetados para
complementar o PC e, portanto, devem conter as mesmas informações em ambos os dispositivos
(gadgets) através de um programa de sincronização.
Apesar de os handhelds serem utilizados principalmente para o gerenciamento de
informações pessoais (contatos, compromissos, listas de coisas a fazer, e-mails, calendários), seu
uso estendeu-se às empresas devido à facilidade de transporte e registro de informações. Alguns
exemplos: vendas externas, coleta de dados em concorrentes, expedição de cargas para transporte,
recenseamento, leitura de dados de água/esgoto e luz dos imóveis etc.
Alguns fabricantes de handhelds: PalmOne, Sony, Symbol, HP. Alguns fabricantes de
smartphones: PalmOne, SamSung, Kyocera, Apple (iPhone). A Research in Motion (RIM) é a
fabricante do BlackBerry, outro exemplo de aparelho que combina telefone celular e PDA. O
BlackBerry ganhou popularidade principalmente devido a tecnologia “push” (empurrar) que faz auto-
sincronização contínua, ou seja, mantém agenda, e-mails e demais informações continuamente
atualizadas.
Os tablets têm formato de prancheta, tela sensível ao toque (touch screen) e servem
para acesso à internet, gerenciamento de informações pessoais, visualização de fotos e vídeos,
leitura de jornais, revistas e livros, além de entretenimento. É um gadget com funcionalidades de
computador e smartphone. São bem maiores que os smartphones, porém, menores que os
notebooks. A popularização deste tipo de computador iniciou-se com o lançamento do iPad da Apple
em janeiro de 2010.
Alguns fabricantes de tablets: Apple, Samsung, LG, Toshiba, HP, RIM (BlackBerry).
Sistemas Operacionais para dispositivos móveis (handhelds e tablets): Windows
Mobile, Palm OS, Android (Google), Symbian OS, BlackBerry OS, iOS (Apple).

Profª Ariane Scarelli FPD 21


Leia o artigo: ANEXO I – Tablets e notebooks chegam mais perto de extinguir PC de
mesa.

Muitos microcomputadores de hoje são mais de 50 vezes poderosos do que seus


correspondentes de uma década atrás. Os mesmos avanços tecnológicos que tornaram esses
computadores cada vez mais potentes também colocaram essa potência em embalagens cada vez
menores. Portanto, embora os termos permaneçam mais ou menos inalterados, as formas, tamanhos
e capacidades dos computadores aos quais fazem referência foram radicalmente alterados ao longo
dos anos, e essas características não param de mudar. Na verdade, os PCs de hoje são muito mais
potentes do que os mainframes de apenas alguns anos atrás, e a concorrência está produzindo
modelos menores e mais rápidos todos os anos.
Todas essas classes de computadores podem ser ligadas umas às outras para formar
redes de computadores.

Profª Ariane Scarelli FPD 22


4 INTERNET – Histórico e Desenvolvimento

A Internet representa para a sociedade do conhecimento a consolidação do mundo


sem fronteiras. Em muitas circunstâncias não se sabe a origem de onde os dados, as informações e
os conhecimentos provêm. Em outras palavras, a plataforma web tornou o mundo, de fato, global e
o conhecimento, digital. Com isto, a educação, antes linear e estática, ganhou dinamismo.
O surgimento da Internet data de 1969 quando a Agência de Projetos Avançados de
Defesa (ARPA) dos Estados Unidos desenvolveu uma rede de computadores com conexão remota
via telefone, denominada ARPANET. A rede interligava quatro computadores (nós) geograficamente
localizados em quatro diferentes centros de pesquisa universitária no país - no Stanford Research
Institute, na Universidade da California, na Universidade de Santa Barbara e na Universidade de
Utah, nos EUA. Cada nó possuía um sistema operacional diferente e deveria formar uma rede de
colaboração com o departamento de defesa. A rede foi criada com a finalidade de descentralizar e
replicar informações estratégicas para diferentes locais dos EUA. Era a época da Guerra Fria entre
Estados Unidos e União Soviética, que concorriam tanto militarmente quanto tecnologicamente,
portanto se ocorresse um ataque militar no território americano que destruísse um computador, outros
continuariam funcionando, trocando dados e informações. O projeto ARPANET definiu os protocolos
para transferência de arquivos (FTP) e de transmissão e controle de tráfego dos dados (TCP/IP) que
são utilizados na Internet hoje.
Em 1973 a ARPANET começou a ser conectada a outra rede através de ondas de
rádio e não telefone. Em 1977 estas duas redes interligadas foram conectadas a uma rede de
satélites que recebeu o nome de internetworking (inter-rede) ou Internet.
Em 1990 os países já conectados à Internet incluíam Argentina, Áustria, Bélgica,
Brasil, Chile, Grécia, Índia, Irlanda, Coreia do Sul, Espanha e Suíça. Em 20 anos a Internet passou
de 4 para 300 mil servidores de hospedagem.
Em 1991, Tim Berners-Lee, pesquisador do CERN - laboratório de física de partículas
- na Suiça, se deu conta de que a maior parte de seu trabalho de pesquisa dependia de colaboração
mútua e informação atualizada com frequência. Desenvolveu um sistema para simplificar a
navegação na Internet que, com o tempo, tornou-se conhecido como World Wide Web (www). O
sistema também deveria aproveitar o conceito de hipertexto com múltiplas associações através de
links, desenvolvida teoricamente por Ted Nelson e apresentada num artigo publicado pelo autor em
meados de 1960. As conexões não lineares do cérebro humano poderiam ser imitadas por uma
máquina (o computador) através de ligações diretas ou links entre as informações.
Os usuários da Internet nos primeiros tempos eram pesquisadores e estudantes de
pós-graduação de universidades e funcionários de governos, principalmente, os militares. Em 1994,

Profª Ariane Scarelli FPD 23


20 milhões de pessoas já estavam conectadas, inclusive as empresas para fins comerciais. Em 2001,
foram registrados 500 milhões de usuários.
Hoje, a Internet é muito maior11 e mais complexa do que no passado à época do projeto
ARPANET e conecta computadores, satélites, aparelhos móveis e outros dispositivos em uma
imensa rede mundial.
Acessar a Internet ficou mais rápido e barato ao longo dos anos, dados de 201012
mostram que no ano de 2000 o preço mensal da conexão era de R$ 230,00, a uma velocidade de
256 Kbps; em 2009, o preço mensal registrado da conexão foi de R$ 85,00 e a velocidade, 3 Mbps.

Leia também o ANEXO L – Internet: 25 anos do WWW, o ANEXO R – Tudo


Conectado: Conceitos e Representações da Internet das Coisas, o ANEXO T – O que é Li-
Fi e como funciona e o ANEXO U – Por dentro do universo sombrio da Deep Web [infográfico].

11
Leia artigo no ANEXO E – Internet alcança marca de 2 bilhões de usuários no mundo, diz ONU.
12
Revista Superinteressante, ed. 274, jan./2010, p. 56-57

Profª Ariane Scarelli FPD 24


5 CONFIGURAÇÃO DOS COMPUTADORES

Neste tópico abordaremos diversos temas relacionados ao hardware do computador, sua


parte física. Começaremos com a arquitetura básica de um computador.

Arquitetura de John von Neumann (Figura 26):

Unidades de Entrada Processamento Unidades de Saída

OU

Memória

Unidades de Entrada Unidades de Saída

CPU

Figura 26 – Arquitetura de Jon von Neumann

5.1 Configuração da Memória Principal

Entende-se por memória todo dispositivo capaz de armazenar dados. No computador, há


diferentes tipos de memória com diferentes finalidades de armazenamento. A memória principal,
também chamada de memória primária ou interna do computador, é formada pelas unidades RAM e
ROM.

5.1.1 Memória RAM (Random Access Memory)

▫ Memória de acesso aleatório;


▫ Permite operações de leitura e gravação de dados;
▫ É volátil, ou seja, os dados nela armazenados são apagados quando a máquina é
desligada;
▫ Armazena dados dos programas e aplicações em processamento, dados sobre o
andamento dos programas e aplicações em execução e dados sobre os dispositivos de
E/S;

Profª Ariane Scarelli FPD 25


▫ Seus dados podem ser alterados diretamente pelo usuário ou pela CPU (consequência da
execução de uma instrução);
▫ Grande velocidade de leitura e gravação.

Existem dois tipos de memória RAM, com características muito diferentes:

DRAM (dinamic RAM ou RAM dinâmica): chip de memória que armazena cargas elétricas
em capacitores, que são pequenos componentes eletrônicos capazes de armazenar carga. Um
capacitor carregado equivale a um dado “1” e um capacitor descarregado a um “0”. Como os
capacitores paulatinamente vão perdendo sua carga, o conteúdo dos chips DRAM precisa ser
continuamente renovado, o que justifica o nome "dinâmico". A essa renovação dá-se o nome de
refresh.
Características:
▫ Barata;
▫ Fácil integração (muita capacidade em pouco espaço físico)
▫ Baixo consumo de energia;
▫ Lenta, pois necessita de refresh.

SRAM (static RAM ou RAM estática): extremamente rápida e de alto consumo de energia.
Não utiliza capacitores, mas circuitos digitais chamados flip-flops para o armazenamento de cada “0”
ou “1”, sem a necessidade de nenhum ciclo de refresh. Portando, uma vez carregada, as informações
são mantidas até que o computador seja desligado ou até que os endereços de memória sejam
ocupados por outros dados. No mesmo espaço onde poderíamos ter vários capacitores (que são
pequenos) teremos somente alguns flip-flops (pois são grandes). Este tipo de memória é bem mais
caro e os circuitos, maiores. Exemplo: memória cache.
Características:
▫ Cara;
▫ Difícil integração (pouca capacidade em muito espaço físico);
▫ Alto consumo de energia;
▫ Rápida.

 A memória cache é um tipo de memória de acesso rápido exclusivamente utilizado para


armazenar dados que provavelmente serão utilizados novamente.

Profª Ariane Scarelli FPD 26


5.1.2 Memória ROM (Read Only Memory)

▫ Memória exclusiva para leitura;


▫ NÃO é volátil, ou seja, seus dados não são apagados quando o computador é desligado;
▫ Seus dados não podem ser alterados;
▫ Armazena dados que já vêm gravados de fábrica e são informações básicas para o
funcionamento do computador. Esses dados são programas que, na ROM, recebem o
nome de firmware. Os programas armazenados na ROM são:
 BIOS (Basic Input/Output System), em português, Sistema Básico de Entrada e
Saída  São rotinas do sistema que fazem a interface entre as instruções em alto
nível dos programas e os sistemas periféricos para controlar as entradas e saídas
dos vários dispositivos padrão, como controle do vídeo, do teclado e das unidades
de disco (PUBLISHING STAFF, 2000);
 POST (Power-On Self Test), em português, Auto teste de Inicialização  Um auto
teste feito toda vez que o computador é ligado. Algumas de suas rotinas são:
verificar todos os componentes instalados como vídeo e memória; carregar o SO
para a memória;
 SETUP (Configuração)  Esse programa permite alterar o conteúdo da memória
de configuração (CMOS – Complementary Metal Oxide Semiconductor).

Tipos de memória ROM:


▫ Mask ROM: esse tipo de memória é gravado na fábrica do circuito integrado e não há
como apagarmos ou regravarmos o seu conteúdo. Esse tipo de circuito é fabricado sob
encomenda.
▫ PROM (Programmable Read Only Memory): possui circuitos internos que permitem sua
gravação nos centros onde será utilizada (é gravada pelo fabricante do periférico que
utilizará o circuito), porém, uma única vez. Uma vez gravada não pode ser alterada;
▫ EPROM (Erasable Programmable Read Only Memory): permite gravação e alteração de
dados com aplicação de raios ultravioletas;
▫ EEPROM (Electric Erasable Programable ROM): a EEPROM (ou E2PROM) é uma
EPROM onde o apagamento não é feito através de luz, mas sim através de impulsos
elétricos. Essa tecnologia permite a reprogramação de circuitos sem a necessidade de
removê-los.
▫ Flash-ROM: essa é a tecnologia mais moderna para circuitos de memória ROM, pois
permite que o circuito seja reprogramado eletronicamente, isto é, usando o próprio

Profª Ariane Scarelli FPD 27


computador, sem remoção do chip. Com isso, o usuário pode reprogramar um circuito de
memória ROM sem a necessidade de trocar peças, como é o caso do upgrade de BIOS
em placas-mãe modernas. É um tipo de EEPROM, mas com um importante diferencial: o
apagamento é feito de forma rápida, ao contrário das EEPROM anteriores.

5.2 Memória Auxiliar

A memória auxiliar, também chamada de memória de massa, memória secundária ou


memória externa do computador é aquela capaz de armazenar dados de forma permanente. Alguns
exemplos de unidades de memória auxiliar são: discos rígidos e flexíveis, fitas magnéticas, fitas
perfuradas, cartões perfurados, CDs, DVDs, pendrives, entre outros.
Características:
▫ Usada para o transporte de dados de um computador para outro;
▫ Não é volátil;
▫ Grande capacidade de armazenamento;
▫ Usada normalmente para leitura e gravação;
▫ Para processar seus dados é necessário transferi-los antes para a RAM;
▫ Os dados contidos nela podem, geralmente, ser alterados.

Diferenças entre Memória Principal e Memória Auxiliar :

1. Processamento dos dados: os dados armazenados na memória auxiliar devem ser


transferidos para a principal a fim de serem processados. Ex.: para executar um programa
armazenado em CD deve-se “carregá-lo” na memória principal;

2. Velocidade de armazenamento dos dados: a velocidade de acesso à memória principal é


muito maior que a da memória auxiliar;

3. Tempo de armazenamento dos dados: os dados na memória auxiliar ficam armazenados


por longo tempo, na memória principal, por curto tempo;

4. Tipos de dados armazenados: na memória principal são armazenados os dados que


serão processados, na memória auxiliar, os dados que serão guardados;

5. Capacidade de armazenamento: geralmente maior na auxiliar;

Profª Ariane Scarelli FPD 28


5.3 Unidades de Medida Computacional

O computador é um universo regido por sinais elétricos. Esses sinais elétricos são a única
linguagem compreendida por qualquer tipo de dispositivo eletrônico (gadget) ou computador. A
Linguagem do Computador é baseada na existência ou não de um sinal elétrico e recebe o nome
de Sistema Binário, representado matematicamente pelos números 0 e 1.

BIT (Binary Digit - dígito binário): cada valor interpretado pela máquina; a menor unidade de
informação que se pode ter no computador.

BYTE (Binary Term): conjunto de 8 bits usado para representar qualquer caractere de nossa
língua ou símbolo (é possível a representação de 256 caracteres - de 0 a 255), é a unidade padrão
de medida de memória.

O BYTE, nos primeiros computadores, era chamado de word (palavra) e indicava o tamanho
do dado que trafegava entre a memória principal e o processador de um computador num
determinado instante, numa via de tráfego interna (barramento) que comportava apenas 8 bits. Com
o desenvolvimento tecnológico foram criados computadores com barramentos maiores, de 16, 32 e
64 bits.
Word é uma unidade básica de armazenamento do computador; é uma quantidade de bits
definida equivalente a quantidade (de bits) que um barramento de dados pode movimentar (uma
sequência de 8 a 64 bits), ocupando uma única localização de armazenamento e processada como
uma unidade pelo computador.
Os agrupamentos de bits recebem nomes especiais e representam uma variação de números
bastante definida:
▫ Um grupo de 4 bits é chamado de NIBBLE
▫ Um grupo de 8 bits é chamado de BYTE
▫ Um grupo de 16 bits é chamado de WORD
▫ Um grupo de 32 bits é chamado de DOUBLE WORD
▫ Um grupo de 64 bits é chamado de QUAD WORD

Em 1963, o comitê de padronização americano chamado ANSI (American National Standards


Institute) criou o sistema de caracteres ASCII (American Standard Code for Information Interchange
– Código Americano Padrão para o Intercâmbio de Informação) onde cada caractere corresponde a
um número decimal.

Profª Ariane Scarelli FPD 29


Ex.: null  00000000 = 1 byte = 0 decimal na tabela ASCII
A  01000001 = 1 byte = 65 decimal na tabela ASCII
a  01100001 = 1 byte = 97 decimal na tabela ASCII
blank  11111111 = 1 byte = 255 decimal na tabela ASCII

Segundo HSW (2009)13,


[...] no sistema de caracteres ASCII, cada valor binário entre 0 e 127
está associado a um caractere específico. A maioria dos computadores
estende o sistema ASCII para utilizar a gama completa dos 256
caracteres disponíveis em um byte. Os últimos 128 caracteres
comportam elementos especiais, como caracteres acentuados de
diversas línguas como o português.

Esse padrão, no entanto, é restrito a uma pequena quantidade de caracteres ocidentais. O


padrão chamado Unicode14, criado a partir de 1987 pelas empresas Xerox e Apple, num esforço de
mapeamento multilíngue, inseriu caracteres dos alfabetos japonês, chinês tradicional e simplificado.
A partir de 1990, Microsoft e IBM começaram a fazer parte do grupo de estudos do Unicode. A última
versão do Unicode – desde a última atualização deste material – é a 7.0 e foi lançada em 16 de junho
de 2014. Há mais de 90 sistemas de escrita, com mais de 110 mil códigos mapeados. O padrão já
foi implementado em tecnologias recentes como o XML, HTML, Java e sistemas operacionais
modernos.
O padrão UTF-8 (Unicode Transformation Format – 8 bits) é um método de codificação
Unicode que preserva o padrão ASCII de caracteres, maximizando sua compatibilidade, e é
largamente utilizado na criação de páginas web com a linguagem de marcação HTML. Os primeiros
127 códigos Unicode do UTF-8 são iguais aos códigos da tabela ASCII.
Para demonstrar a abrangência do Unicode e sua internacionalização, na versão 5.2, lançada
em outubro de 2009, houve a inclusão de Hieróglifos Egípcios15!

Lista de unidades de medida computacional:


1 BYTE = 8 BITS = 1 CARACTERE
1 KILOBYTE (KB) = 1024 Bytes (210)
1 MEGABYTE (MB) = 1024 KB = 1.048.576 bytes (220)
1 GIGABYTE (GB) = 1024 MB = 1.073.741.824 bytes (230)

13 How stuff works (como tudo funciona), 2009. Disponível em http://informatica.hsw.uol.com.br/bits-bytes.htm.


14
The Unicode Consortium. Disponível em: <http://www.unicode.org/versions/Unicode7.0.0/>. Acesso em 14 fev. 2015.
15
Articles on Unicode: Unicode nearing 50% of web, jan. 2010. Disponível em:
<http://www.unicode.org/announcements/articles.html>. Acesso em 26 dez. 2013.

Profª Ariane Scarelli FPD 30


1 TERABYTE (TB) = 1024 GB = 1.099.511.627.776 bytes (240)
1 PETABYTE (PB) = 250
1 EXABYTE (EB) = 260
1 ZETABYTE (ZB) = 270
1 YOTTABYTE (YB) = 280

5.4 Unidade Central de Processamento (CPU)

Unidade integrada em um único chip, chamado microprocessador16. A CPU é considerada o


cérebro do computador, em torno do qual se organizam as outras unidades do sistema.
Sua função básica é a execução de programas (aplicativos, jogos, editores de textos,
programas desenvolvidos pelo usuário, software básico – SO), ou seja a CPU trabalha, processa e
desenvolve as informações acessadas.
É dividida em duas outras unidades:
▫ Unidade de Controle (UC);
▫ Unidade Lógica e Aritmética (ULA).

5.4.1 Unidade de Controle (UC)

Dirige e coordena as demais unidades do sistema, executando as seguintes funções:


▫ Analisa cada instrução do programa em execução;
▫ Controla o armazenamento de dados na memória principal, através do endereços;
▫ Ativa a ULA quando necessário;
▫ Ativa as unidades de E/S, selecionando os dados e os dispositivos envolvidos na
transferência de dados.
OBS.: É a única unidade com acesso a todas as outras do sistema.

5.4.2 Unidade Lógica e Aritmética (ULA)

Executa as operações lógicas (comparações e decisões) e aritméticas (adição, subtração,


multiplicação, divisão etc.).

16
Ver Apêndice A.

Profª Ariane Scarelli FPD 31


5.4.3 Outros componentes

Para que a CPU consiga realizar suas funções adequadamente, são ainda necessários outros
componentes:

 Registradores: posições de memória construídas na própria CPU que são usadas para
armazenar os dados que estão sendo processados pela instrução atual. Por exemplo, a UC
pode carregar dois números da memória para os registradores da ULA. Depois mandar a ULA
executar uma operação.
 Barramentos: o barramento (bus) é uma via de tráfego interna através da qual os sinais
transitam entre os diversos componentes do computador. Existem vários barramentos, porém
três deles são chamados de “Principais”: barramento de dados, barramento de endereços e
barramento de controle.
 Clock: circuito oscilador que tem a função de sincronizar e ditar a medida de velocidade de
transferência de dados entre duas partes essenciais de um processamento. Ao clock está
associada uma medida de frequência com que operações são realizadas (ciclos por segundo).
A Figura 27 apresenta a organização básica de um computador.

Placa mãe

Memória RAM Memória ROM

Unidades de CPU
Entrada

UC Unidades de
Saída
Memórias
Auxiliares Memória Registradores ULA
Cache

Figura 27 – Organização básica de um computador

5.5 Unidades de Entrada e Saída de Dados

Também chamadas de periféricos de entrada e saída, é através delas que se estabelece a


comunicação, a interação entre o usuário e o computador.

Profª Ariane Scarelli FPD 32


São divididas da seguinte forma:

▫ Unidades de Entrada  recebem os dados do usuário (teclado, mouse, scanner etc.);


▫ Unidades de Saída  apresentam para o usuário os resultados processados (vídeo,
impressora, plotter etc.);
▫ Unidades de E/S  fazem as duas tarefas (unidades de disco e de fita magnética,
winchester, cartão perfurado, zip, fita dat, HD, pendrive etc.).

Profª Ariane Scarelli FPD 33


6 CARREIRAS E PROFISSÕES

A informatização crescente das atividades de trabalho criou novas demandas profissionais na


área de Tecnologia da Informação (TI). Novas carreiras ou sub-áreas da TI para a execução de
tarefas específicas vêm constantemente surgindo, consequentemente, novas profissões aliam-se às
mais antigas para suprir esse desenvolvimento crescente.
Neste tópico trataremos das carreiras e profissões em TI. Leia também o artigo no ANEXO J
– Quer ganhar mais? Seja um craque de TI.
As faixas salariais apresentadas aqui foram retiradas dos sites da Catho Online e
Salariômetro, cujas referências encontram-se nas páginas a seguir.

6.1 Especialista em Cloud Computing

O armazenamento de dados em nuvem é uma das áreas apontadas pelos especialistas que
exigirá profissionais especializados.
“Há a questão da exigência global por agilidade. O mundo é móvel, as informações não
precisam mais ser armazenadas no hardware, hoje é possível acessar qualquer tipo de informação
de qualquer lugar”, explica um especialista.
Matemática, estatística e computação são as áreas de formação mais adequadas para esta
profissão.
Não foram encontradas referências salariais.

6.2 Gestor em Big Data

Profissão que vem ganhando destaque no Brasil17 é a de gestor em Big Data, também
conhecida como Cientista de Dados. Utiliza tecnologias para a captura, armazenamento,
processamento e análise de informações de grandes bases de dados, bem como grande volume de
dados desestruturados que trafega na Internet em tempo real.
Idem ao tópico anterior, matemática, estatística e computação são as áreas de formação mais
adequadas para quem pretende seguir nesta profissão.

1720 profissões do (e com) futuro, segundo especialistas. Disponível em: <http://exame.abril.com.br/carreira/noticias/20-


profissoes-do-e-com-futuro-segundo-especialistas#19>. Acesso em 14 fev. 2015.

Profª Ariane Scarelli FPD 34


No novo site do Salariômetro18 há diversas denominações em português para esta profissão:
cientista da informação, consultor de informação, especialista de informação, gerente de informação,
gestor de informação. Salário médio inicial (maio a outubro de 2015): R$ 3.032,00.

6.3 Administração de Banco de Dados

É o segmento que cuida da criação, segurança e manutenção dos dados do banco e das
informações geradas pelas empresas, desde o cadastro de clientes e fornecedores, até dados
relativos a pesquisas de mercado e concorrência. Quem segue esta carreira é chamado de
Administrador de Banco de Dados (DBA, sigla em inglês).
Segundo a Catho Online19, o salário médio para iniciantes: RS 2.400,00; Salário médio para
topo da carreira: RS 8.200,00.
Segundo o Salariômetro20: Salário médio de admissão: RS 3.795,00.
Novo Salariômetro (maio a outubro de 2015): R$ 4.904,00

6.4 Administração de Redes

É o segmento responsável por manter interconectados os diversos setores ou departamentos


de uma organização e também ligada ao resto do mundo. Cuida, portanto, de redes locais e de
Internet. Exige do profissional avançados conhecimentos de software e hardware.
Segundo a Catho Online, o salário médio para iniciantes: RS 1.660,00; Salário médio para
topo da carreira: RS 10.000,00.
Segundo o Salariômetro: Salário médio de admissão: RS 3.000,00.
Novo Salariômetro (maio a outubro de 2015): R$ 3.692,00.

18 Disponível em: http://www.salarios.org.br/#/salariometro. Acesso em: 09 fev. 2016.


19 Disponível em: <http://home.catho.com.br/>. Acesso em 03 fev. 2014.
20 Disponível em:<http://www.salariometro.sp.gov.br/>. Acesso em: 03 fev. 2014.

Profª Ariane Scarelli FPD 35


6.5 Arquitetura de Informação

É a área voltada ao planejamento e criação da estrutura de serviços em TI. Engloba desde a


modelagem de bancos de dados, o desenvolvimento de sistemas de biblioteca, até a organização
estrutural das informações que serão apresentadas em um site.
Segundo o Instituto de Arquitetura da Informação21,
Definimos arquitetura de informação (AI) como a arte e a ciência de organizar e
catalogar websites, intranets, comunidades online e software de modo que a
usabilidade seja garantida.
À medida que a informação prolifera de forma exponencial, a usabilidade vem se
tornando o fator crítico de sucesso para websites e aplicações. Uma boa AI
estabelece as fundações necessárias para que um sistema de informação faça
sentido para seus usuários.

Segundo a Catho Online, o salário médio para iniciantes: RS 2.800,00; Salário médio para
topo da carreira: RS 10.500,00.
Segundo o Salariômetro: Salário médio de admissão: R$ 5.920,00.
Novo Salariômetro, Engenheiro de Sistemas Computacionais - Aplicativos (maio a outubro de
2015): R$ 7.427,00.

6.6 E-commerce

É o segmento de desenvolvimento e manutenção de sistemas de comércio eletrônico


(operações de compra e venda pela internet), como os utilizados em sites de varejo (Submarino,
Amazon, ebay etc.)
Segundo a Catho Online, o salário médio para iniciantes: RS 2.900,00; Salário médio para
topo da carreira: RS 15.000,00.
Segundo o Salariômetro: Salário médio de admissão: R$ 3.724,00
Novo Salariômetro, Analista de Comércio Eletrônico (e-commerce) (maio a outubro de 2015):
R$ 4.485,00.

21 Disponível em:<http://iainstitute.org/pt/translations/o_que_e_arquitetura_de_informacao.php>. Acesso em 10 jan. 2014

Profª Ariane Scarelli FPD 36


6.7 Processamento de Dados

Controle do fluxo de informações e criação de programas simples para tarefas específicas


das empresas. Preparação do computador para o processamento dos diferentes sistemas. Operação
e gerenciamento de periféricos como impressoras, unidades de armazenamento e execução de
cópias de segurança (backups), instalação e desinstalação de softwares.
Por não exigir alta especialização em algum segmento de TI costuma oferecer os menores
salários.
Segundo a Catho Online, o salário médio para iniciantes: RS 1.300,00; Salário médio para
topo da carreira: RS 9.000,00.
Segundo o Salariômetro: Salário médio de admissão Operador: RS 1.170,00.
Novo Salariômetro, Operador de Processamento de Dados (maio a outubro de 2015): R$
1.498,00.

6.8 Programação

É o segmento responsável pela criação de fluxogramas e algoritmos baseados nas


requisições recebidas do analista de sistemas de informação (ou engenheiro de aplicativos em
computação ou arquiteto de software), fase que exige alto grau de concentração e conhecimento
técnico. É responsável pela codificação, atualização e manutenção dos programas. Os
conhecimentos necessários englobam os recursos do computador, as linguagens de programação e
os aplicativos disponíveis. As diversas linguagens de programação existentes no mercado abrem
espaço para muitas possibilidades de especialização profissional.
Segundo a Catho Online, o salário médio para iniciantes: RS 1.600,00; Salário médio para
topo da carreira: RS 9.300,00.
Segundo o Salariômetro: Salário médio de admissão Programador: RS 2.186,00.
Novo Salariômetro, Programador de Sistemas de Computador (maio a outubro de 2015): R$
2.848,00.

Profª Ariane Scarelli FPD 37


6.9 Qualidade do Software

É o setor responsável por testar e aprovar os programas desenvolvidos por outras equipes
e/ou empresas. O trabalho de qualidade é essencial para garantir a satisfação dos usuários. Envolve
análise de usabilidade e interação humano-computador (IHC).
Segundo a Catho Online, o salário médio para iniciantes: RS 1.500,00; Salário médio para
topo da carreira: RS 8.500,00.
Segundo o Salariômetro: não cadastrado.
Novo Salariômetro: não cadastrado.

6.10 Segurança da Informação

É o segmento que atua na prevenção e combate a ataques criminosos aos dados. O


especialista nesta área é essencial em empresas de comércio eletrônico e instituições financeiras. É
responsável pela confidencialidade, integridade e disponibilidade das informações de uma
organização.
Segundo a Catho Online, o salário médio para iniciantes: RS 2.100,00; Salário médio para
topo da carreira: RS 9.000,00.
Segundo o Salariômetro: Salário médio de admissão: RS 7.269,00.
Novo Salariômetro, Gerente de Segurança de Tecnologia da Informação (maio a outubro de
2015): R$ 8.141,00

6.11 Sistemas

É a área responsável pelo levantamento das informações da empresa e de suas necessidades


para a análise de viabilidade do desenvolvimento do software. Faz o planejamento, desenvolvimento
e implantação dos projetos de TI, planeja o parque de equipamentos e periféricos. O profissional
desta área também pode atuar como consultor.
Deste profissional são exigidos profundos conhecimentos sobre o funcionamento dos
equipamentos, das linguagens, sistemas operacionais, bancos de dados, redes de computadores e
diversos outros tipos de aplicativos conforme a especificidade de sua área de negócios. É importante
que esteja inteirado das tendências de mercado e dos preços de equipamentos e periféricos.

Profª Ariane Scarelli FPD 38


Segundo a Catho Online, o salário médio para iniciantes: RS 2.000,00; Salário médio para
topo da carreira: RS 15.500,00.
Segundo o Salariômetro: Salário médio de admissão: RS 3.724,00.
Novo Salariômetro, Analista de Tecnologia da Informação (maio a outubro de 2015): R$
4.485,00

6.12 Suporte Técnico em Informática

Setor indispensável para a solução de problemas cotidianos de informática numa empresa,


como consertar computadores, dar manutenção às redes de computadores, instalar sistemas
operacionais, prestar suporte presencial aos usuários ou por telefone (help desk).
Segundo a Catho Online, o salário médio para iniciantes: RS 1.300,00; Salário médio para
topo da carreira: RS 17.000,00.
Segundo o Salariômetro: Salário médio de admissão Analista de Suporte Computacional: RS
2.240,00; Salário médio de admissão Gerente de Suporte Técnico de Tecnologia da Informação:
4.209,00.
Novo Salariômetro (maio a outubro de 2015):
 Analista de Suporte Computacional: R$ 2.546,00;
 Gerente de Suporte Técnico de Tecnologia da Informação: R$ 5.222,00.

6.13 Gerência de Projetos de TI

É o segmento responsável pelo planejamento, organização, execução, monitoramento e


controle dos projetos de TI.
Segundo a Catho Online, o salário médio para iniciantes: RS 1.800,00; Salário médio para
topo da carreira: RS 15.200,00.
Segundo o Salariômetro: Salário médio de admissão Gerente: RS 7.108,00.
Novo Salariômetro (maio a outubro de 2015): R$ 7.902,00

Profª Ariane Scarelli FPD 39


6.14 Desenvolvimento Web

É o segmento responsável pelo desenvolvimento técnico e visual de páginas para internet


(www) ou intranet (rede privada), incluindo a definição de linguagens de programação e bancos de
dados a serem utilizados. É responsável também pela manutenção do site.
Segundo a Catho Online, o salário médio para iniciantes: RS 2.000,00; Salário médio para
topo da carreira: RS 9.000,00.
Segundo o Salariômetro: Salário médio de admissão Desenhista Industrial (Designer): RS
1.776,00.
Novo Salariômetro, Desenhista de Páginas na Internet (Web Designer): R$ 2.017,00.

Leia o ANEXO J – Quer ganhar mais? Seja um craque de TI e o ANEXO O – ‘Nômades


digitais’ trocam rotina por vida de viagens e trabalho online

Profª Ariane Scarelli FPD 40


7 INTRODUÇÃO AO SOFTWARE

Neste tópico abordaremos os conceitos da parte lógica ou “intocável” do computador,


chamada de software.

7.1 Conceitos de Linguagens de Programação

Linguagens de Programação são as ferramentas utilizadas para dar instruções ao


computador a fim de que ele execute tarefas de acordo com as necessidades de cada usuário. São
utilizadas para construir softwares.

Software22 é o conjunto completo ou apenas uma parte dos programas, procedimentos,


regras e documentação associada de um sistema [computacional] de processamento de informação.

Programa é um conjunto de instruções necessário à resolução de um problema, com estrita


obediência aos padrões sintático e semântico da linguagem e logicamente ordenado.
As Instruções são comandos e funções de uma linguagem de programação.
A sintaxe é um padrão de escrita, que são as normas ou regras que descrevem como as
instruções da programação são estruturadas para não ocorrer incompatibilidade entre programas
escritos na mesma linguagem.
A semântica é o significado, a finalidade de cada instrução na linguagem de programação que
resulta em seu comportamento dentro do programa.

Leia o ANEXO F – Programação: Como escrever um código limpo?

Existem vários tipos de Linguagens de Programação divididas de acordo com suas


características de operação.

7.2 Gerações das Linguagens

22
ISO/IEC 2382-1, 1993.

Profª Ariane Scarelli FPD 41


7.2.1 Primeira Geração

▫ Linguagem de Máquina (LM), também denominada linguagem “nativa” da CPU. A partir


de 1944.
▫ As instruções são escritas em códigos binários (“0” e “1”), dizendo a CPU exatamente qual
circuito ligar e desligar.
▫ Execução imediata pela CPU, consequentemente o processamento é rápido.
▫ Programação, correção de erros e alterações são difíceis para o programador.

7.2.2 Segunda Geração

▫ Linguagem Assembly (do inglês Linguagem de Montagem)


▫ Permite a representação de códigos binários da LM através de símbolos (mnemônicos),
daí a denominação de linguagens simbólicas.
▫ Os programas utilizados para traduzir para o código de máquina foram chamados de
programas assembler.
▫ Programação  mnemônicos + valores hexadecimais. Um pouco mais simples que LM,
mas ainda com grandes dificuldades.
▫ existe uma linguagem Assembly apropriada a cada tipo de microprocessador (INTEL
8085, 8086, 80286, 80386, 80486, Pentium, ZILOG Z80, 6502 etc.).

7.2.3 Terceira Geração

▫ Cobol, Fortran, Basic, Pascal, Clipper, C, C++.


▫ Sintaxe mais parecida com a forma de expressão do ser humano.
▫ Usa instruções semelhantes à língua inglesa, empregando palavras inteiras e/ou
abreviações.
▫ Cada declaração na linguagem traduz várias instruções na linguagem de máquina.
▫ São procedurais.
▫ Embora mais fáceis de programar não são tão eficientes em termos de velocidade e
utilização de memória, em comparação às gerações anteriores.
▫ Cada linguagem de programação tem características que a tornam apropriada para certos
tipos de problemas ou aplicações, como por exemplo, Cobol, para fins comerciais; Fortran,
para fins científicos.

Profª Ariane Scarelli FPD 42


▫ A linguagem é relativamente independente de um determinado hardware, isto é, o mesmo
programa pode ser usado em inúmeros computadores de diferentes fabricantes.

7.2.4 Quarta Geração

▫ Visual C++, Delphi, Visual Basic, PHP, ASP.


▫ SQL - linguagem de consulta estruturada.
▫ Java - linguagem para desenvolvimento Web.
▫ As linguagens desta geração também são conhecidas como visuais e são utilizadas para
desenvolvimento de programas com base em interface gráfica (GUI - Graphical User
Interface).
▫ São linguagens não procedurais (orientadas à Evento, à Objeto).
▫ Têm capacidade de relacionamento com bancos de dados: utilizam comandos e
instruções para buscar a informação solicitada no banco de dados;
▫ Têm capacidade de geração de códigos: algumas linguagens geram códigos
automaticamente para muitas instruções de programas, como, por exemplo, a linguagem
Delphi.
▫ Sistemas típicos desta geração: ERP (Enterprise Resource Planning) – sistema integrado
de gestão empresarial: são sistemas de informação que englobam um conjunto amplo de
dados e processos de uma empresa. Integram processos industriais ou de gerência de
negócios, incluindo planejamento da produção, comércio, manutenção de estoques,
interagindo com fornecedores e provendo serviços ao cliente. Ainda pode incluir módulos
de aplicações financeiras e de recursos humanos de um negócio. Sistemas ERP utilizam-
se de bancos de dados relacionais.

7.2.5 Quinta Geração

▫ Linguagens orientadas à inteligência artificial (IA): LISP23 e PROLOG.


▫ São conhecidas como linguagens naturais porque permitem aos programadores se
comunicarem com o computador usando sentenças normais. Leia o ANEXO G – Depois
do controle remoto.

23
Desenvolvida a partir de 1960, foi a primeira linguagem para desenvolvimento de software de IA.

Profª Ariane Scarelli FPD 43


▫ Desenvolvimento de sistemas para Gestão do Conhecimento (GC) (em inglês Knowledge
Management (KM)): programação baseada em conhecimento; que faz uso de inteligência
artificial e de agentes inteligentes.

De forma simples, a GC pode ser definida como um processo de captura, distribuição e uso
eficaz do conhecimento utilizando a tecnologia da informação. A parte acessível aos usuários dos
sistemas de GC dá-se através da disponibilização de informações por meio de portais e com o uso
de sistemas de gerenciamento de conteúdo (Enterprise Content Management).

Exemplos de sistemas para GC: OpenKM24, SharePoint (Microsoft)

7.3 Nível das Linguagens

LINGUAGENS DE BAIXO NÍVEL: LM e Assembly, assim chamadas por utilizarem


símbolos na representação direta do código de máquina que será gerado, não necessitando
de conversão, permitindo total acesso e utilização de seus recursos.

LINGUAGENS DE MÉDIO NÍVEL: linguagens tradutoras, portanto, com recursos das


linguagens de alto nível, mas que possibilitam acesso e utilização dos recursos da máquina
semelhante ao que ocorre na linguagem de baixo nível. Exemplos: C, C++.

LINGUAGENS DE ALTO NÍVEL: linguagens tradutoras, assim chamadas por estarem


mais próximas à linguagem humana ou natural, isto é, são compostas de símbolos complexos

24 Disponível em: <http://openkm.com/en/>. Acesso em: 09 fev. 2016.

Profª Ariane Scarelli FPD 44


para a máquina, não executável na forma direta pois necessita de conversão, mas inteligíveis
para os seres humanos. Exemplos: Cobol, Fortran, Clipper, Pascal.

LINGUAGENS DE ALTÍSSIMO NÍVEL: utilizadas em Banco de Dados, interface


gráfica (GUI), sistemas de GC. Exemplos: Delphi, VB, Visual C++, C#, SQL, Java, ASP,
PHP, Visual Studio .Net, ferramentas e linguagens para inteligência artificial (PROLOG e
LISP) e agentes inteligentes.

7.4 Linguagens Tradutoras

Características:
▫ Desenvolvidas para eliminar as dificuldades de programação em LM e Assembly.
▫ Comandos fáceis de memorizar (próximos à linguagem humana) e com grande poder de
programação (um comando substitui vários em LM ou Assembly).
▫ Podem ser utilizadas em diversos computadores.
▫ Programação, correção de erros, alterações mais fáceis que em LM ou Assembly.
▫ Programas menores.

Os programas desenvolvidos nestas linguagens são denominados programas FONTE,


traduzidos para LM antes de serem executados pela CPU, consequentemente ocupam mais espaço
na RAM.
De acordo com a maneira como a linguagem faz a tradução do programa fonte para a LM, as
linguagens tradutoras são divididas em COMPILADORES e INTERPRETADORES.

7.4.1 Compiladores

Características:
▫ Processo de tradução chamado COMPILAÇÃO: o programa fonte é traduzido para LM,
gerando um programa EXECUTÁVEL, que é posteriormente executado pela CPU.
▫ Na compilação ocorre a verificação dos erros de sintaxe.
▫ Exige nova compilação a cada alteração.
▫ O fonte não é usado na execução, apenas o executável, tornando o processamento mais
rápido.

Profª Ariane Scarelli FPD 45


Exemplos: COBOL, FORTRAN, PASCAL, C, C++, CLIPPER, DELPHI, VISUAL BASIC versão
4.0 em diante, JAVA etc.

7.4.2 Interpretadores

Características:
▫ Traduzem e executam um comando de cada vez  NÃO geram o EXECUTÁVEL.
▫ Permitem a execução de trechos do programa, sem que esteja completo.
▫ Usam o fonte na execução, tornando o processamento mais lento.
▫ Correção de erros e alterações mais fáceis que nos compiladores, porque o cursor
normalmente pára sobre o erro.

Exemplos: DBASE, QBASIC, VISUAL BASIC até a versão 3.x, PHP etc.

Profª Ariane Scarelli FPD 46


8 REFERÊNCIAS

AWAD, Elias M.; GHAZIRI, Hassan M. Knowledge management. 1 Ed, Prentice Hall, 480p, 2003.

COLOMBO, L. A. B. Comenius, a educação e o ciberespaço. Bragança Paulista, SP: Editora


Comenius, 2006.

GUIMARÃES, A. S.; JOHNSON, G. F. Sistemas de informações – administração em tempo


real. Rio de Janeiro: Qualitymark, 2007.

HSW - How stuff works (Como tudo funciona). Disponível em <http://www.howstuffworks.com/> e


<http://www.hsw.uol.com.br/>. Acesso em jan./2010.

LEITE, Mario. Técnicas de programação – uma abordagem moderna. Rio de Janeiro: Brasport,
2006.

NORTON, Peter. Introdução à informática. Makron Books, 619p, 1996.

O’BRIEN, James A. Sistemas de informação e as decisões gerenciais na era da internet.


Tradução da ed.9 americana, Saraiva, 436p, 2003.

PUBLISHING STAFF, Peter Collin. English dictionary of computing. 4 Ed, Oak Park, IL, USA:
Peter Collin Publishing, Limited, 2000. Disponível em
<http://site.ebrary.com/lib/unesp/Doc?id=10022158&ppg=47>. Acesso em jul. 2008.

REZENDE, Denis Alcides. Engenharia de software e sistemas de informação. Rio de Janeiro:


Brasport, 2005.

SEBESTA, Robert W. Conceitos de linguagens de programação. 5 Ed, São Paulo: Bookman,


2003.

TORRES, Gabriel. Hardware curso completo. 4 Ed, Axcel Books, 1398p, 2002.

______. Redes de computadores curso completo. Axcel Books, 664p, 2001.

VELLOSO, Fernando de Castro. Informática conceitos básicos. 4 Ed, Campus, 351p, 1997.

Profª Ariane Scarelli FPD 47


9 SITES ÚTEIS/INTERESSANTES

Biblioteca digital desenvolvida em software livre: http://www.dominiopublico.gov.br

Biblioteca Virtual da Unesp: http://www.biblioteca.unesp.br

Blog Profª Ariane Scarelli: http://profarianescarelli.blogspot.com/

Cartilha de segurança da Internet: http://cartilha.cert.br

Comitê Gestor de Internet no Brasil: http://www.cgi.br/

Comitê Gestor de Internet no Brasil – Núcleo de Informação e Coordenação:

http://www.nic.br

Computer History Museum: http://www.computerhistory.org/

Clube do Hardware: http://www.clubedohardware.com.br

Guia do Hardware: http://www.guiadohardware.net/

How stuff works (Como tudo funciona)

Em inglês: http://www.howstuffworks.com/

Em português: http://www.hsw.uol.com.br/

Museu do Computador e Futuro da Tecnologia: http://museudocomputador.org.br/

Online Dictionary, Encyclopedia and much more (dicionário on-line, enciclopédia e muito
mais - em inglês): http://www.answers.com/

Profissões em TI: http://profissoesemti.wordpress.com/

Science Museum: http://www.sciencemuseum.org.uk/

Silicon Valley History: http://www.siliconvalleyhistory.org/

SINDPD (Sindicato dos Trabalhadores em Processamento de Dados e Tecnologia da


Informação do Estado de São Paulo): http://www.sindpd.org.br/sindpd/home.jsp

TED Ideas Worth spreading (ideias que merecem ser espalhadas) – palestras em vídeo
legendadas em português: http://www.ted.com

The Technology online dictionary (o dicionário on-line da tecnologia - em inglês):


http://www.whatis.com

Profª Ariane Scarelli FPD 48


Top 500 Supercomputer Sites (em inglês): http://www.top500.org/

UOL Tecnologia: http://tecnologia.uol.com.br

Profª Ariane Scarelli FPD 49


10 APÊNDICES

APÊNDICE A – Família de processadores Intel25

A tabela a seguir ajuda a entender as diferenças entre os processadores que a Intel lançou nos
últimos anos.

Largura
Velocidade
Nome Data Transistores Mícrons de MIPS
do clock
dados
8080 1974 6.000 6 2 MHz 8 bits 0,64
16 bits
8088 1979 29.000 3 5 MHz 0,33
8 bits
80286 1982 134.000 1,5 6 MHz 16 bits 1
80386 1985 275.000 1,5 16 MHz 32 bits 5
80486 1989 1.200.000 1 25 MHz 32 bits 20
32 bits
Pentium 1993 3.100.000 0,8 60 MHz 100
64 bits
Pentium 32 bits
1997 7.500.000 0,35 233 MHz 300
II 64 bits
Pentium 32 bits
1999 9.500.000 0,25 450 MHz 510
III 64 bits
Pentium 32 bits
2000 42.000.000 0,18 1,5 GHz 1,700
4 64 bits
Pentium
32 bits
4 2004 125.000.000 0,09 3,6 GHz 7,000
64 bits
"Prescott"
Pentium 2,8 GHz
2005 230.000.000 90nm 32 bits
D 3,2 GHz
1,33
Core2 2006 152.000.000 65nm 32 bits 26,000
2,33 GHz
Core 2
2007 820.000.000 45nm 3 GHz 64 bits 53,000
Duo
2,66 GHz
Core i7 2008 731.000.000 45nm 64 bits 76,000
3,2 GHz
Fonte: The Intel Microprocessor Quick Reference Guide (em inglês)

25
Como Tudo Funciona. Disponível em: <http://informatica.hsw.uol.com.br/microprocessadores1.htm>. Acesso em 26/fev/2011.

Profª Ariane Scarelli FPD 50


Informações sobre esta tabela

1. A data é o ano em que o processador foi lançado. Muitos processadores são


relançados com maiores velocidades de clock anos depois do lançamento
original.
2. Transistores é o número de transistores no chip. Nos últimos anos, o número de
transistores em um chip cresceu bastante.
3. Mícrons é a largura, em mícrons, do menor fio do chip. Para você ter uma idéia,
o fio de cabelo humano tem a espessura de 100 mícrons. Os chips diminuem de
tamanho e o número de transistores aumenta.
4. Velocidade do clock é a taxa máxima do clock do chip.
5. Largura de dados é a largura da Unidade Lógico-Aritmética (ALU). Uma ALU de
8 bits pode somar/subtrair/multiplicar/etc dois números de 8 bits. Uma ALU de 32-
bit pode manipular números de 32 bits. Uma ALU de 8 bits teria que executar
quatro instruções para somar dois números de 32 bits, enquanto que uma ALU de
32 bits precisa de apenas uma instrução. Em muitos casos, o barramento externo
de dados é da mesma largura que a ALU. O 8088 tinha uma ALU de 16 bits e um
barramento de 8 bits. Os chips mais recentes buscam dados de 64 bits de uma
vez para as suas ALUs de 32 bits.

Profª Ariane Scarelli FPD 51


11 ANEXOS

ANEXO A – Entrevista: Raymond Kurzweil (Seremos todos cyborgs)

Entrevista a Raymond Kurzweil


Revista Veja – 15 de novembro de 2006.

Seremos todos cyborgs


O cientista americano prevê que, Um espectador até veio ao palco me entregar um
no futuro, homens e máquinas se papel.
fundirão, expandindo nossa
Veja – Alguma semelhança com o pedido de
inteligência socorro da Princesa Leia no primeiro Guerra nas
Estrelas?
Kurzweil – É outra tecnologia. A aparição dela,
Bel Moherdaui uma holografia, era um pouco embaçada,
parecia ter baixa resolução. A minha tem alta
Raymond Kurzweil acredita que estará vivo para resolução.
presenciar o "momento metamórfico", quando
computadores superarão a inteligência humana. Veja – O senhor apostou 10.000 dólares que até
É verdade que, aos 58 anos, talvez tenha de 2029 um computador será capaz de responder a
viver outro meio século ou mais – mas já está uma série de perguntas como se fosse humano.
cuidando disso, com seu próprio método de Como isso será possível?
longevidade. Nesse futuro não muito distante, Kurzweil – Os computadores vão atingir
robôs microscópicos percorrerão as veias inteligência equivalente à humana, tanto no
humanas até chegar ao cérebro. Ali, serão campo do hardware (a máquina) quanto no do
capazes de ligar e desligar os cinco sentidos, software (o programa). A máquina precisa ter
conectar-se à internet e fazer download de novas capacidade de cálculo e memória suficientes
habilidades. O mais incrível é que as previsões para simular todas as diferentes áreas do
desse cientista e inventor americano, gênio cérebro, e acredito que isso será alcançado por
profissional desde a infância, estão sendo ou um supercomputador até 2010 e por um
possivelmente ainda serão confirmadas pelos computador pessoal comum até 2020. Já na
fatos. Como uma espécie de Professor Pardal parte do software, o caminho é a engenharia
moderno, Kurzweil dedica mais da metade do reversa, método que consiste em desmontar um
seu tempo a prever o futuro da tecnologia e a equipamento para ver como ele funciona,
criar máquinas a partir desses avanços. Na aplicada ao cérebro humano. Os conhecimentos
semana passada, fez uma apresentação em São nessa área têm evoluído exponencialmente. A
Paulo – diretamente de Dallas, no Texas: a quantidade de informações que possuímos sobre
"pessoa" que discorreu sobre tecnologia do o cérebro humano dobra a cada ano, e acho que
futuro e conversou com a platéia era sua imagem vamos terminar de modelar e simular todas as
virtual projetada no palco com grande realismo. suas áreas, inclusive aquela na qual
Aqui ele fala sobre esse e outros prodígios. processamos o pensamento abstrato, em cerca
de vinte anos. Até 2029, teremos tudo pronto.
Veja – Como foi sua apresentação virtual no
Brasil? Veja – O senhor já mudou de idéia a respeito de
Kurzweil – Eu apareci para a platéia em alguma de suas muitas previsões?
tamanho natural e em três dimensões. É uma Kurzweil – Até agora, não. No meu primeiro livro,
imagem muito realista. Em outras apresentações The Age of Intelligent Machines, escrito há vinte
que fiz com essa tecnologia, as pessoas anos, previ o surgimento de uma rede de
pensaram que eu estava presente de verdade.

Profª Ariane Scarelli FPD 52


comunicação internacional em meados dos anos computador comum será mil vezes mais
90. Previ que um computador venceria um poderoso que o cérebro humano.
campeonato de xadrez em 1998 (aconteceu em
1997). Previ que em 2013 um supercomputador Veja – Alguns pesquisadores temem o que pode
conseguiria fazer os cálculos necessários para acontecer com a humanidade quando os
um computador alcançar a inteligência humana computadores se tornarem inteligentes demais.
e, logo depois que publiquei o livro, o Japão O senhor tem algum receio?
anunciou o projeto de um supercomputador que Kurzweil – Nenhum. As máquinas inteligentes
atingiria essa marca em 2010. Minhas projeções serão parte da nossa civilização. Vamos ficar
na verdade são bem conservadoras. Eu me cada vez mais próximos delas. Vamos carregá-
esforço para fazê-las assim, embora as pessoas las no bolso, elas estarão na nossa roupa – até
as considerem exageradamente otimistas. no nosso corpo, expandindo a nossa própria
inteligência.
Veja – Como o senhor faz suas projeções?
Kurzweil – Eu percebi, há trinta anos, que a Veja – Dentro do corpo?
chave para o sucesso de projetos tecnológicos é Kurzweil – Falo dos nanobots, robôs do tamanho
o timing. Muitas invenções fracassaram não das células do sangue. Já estão sendo testados
porque não funcionavam, mas porque não com sucesso em animais e devem estar bem
dispunham de todos os fatores necessários para sofisticados em 2020. Os nanobots chegarão ao
dar certo. Passei a estudar tendências, acumulei cérebro pelas veias e poderão interagir com
dados sobre a evolução da tecnologia e nossos neurônios biológicos, tornando-nos mais
desenvolvi modelos que funcionam bem. É inteligentes, melhorando nosso bem-estar físico
verdade que não se pode prever o futuro, mas a e aumentando a longevidade.
forma como conteúdos e processos de
tecnologia se desenvolvem é bem previsível. Veja – O senhor acha que poderá testemunhar
Veja o seqüenciamento genético: a quantidade essas extraordinárias mudanças?
de informação genética dobra todo ano. Não é Kurzweil – Estou me preparando para isso. No
um cálculo aproximado. É exatamente isso. livro A Medicina da Imortalidade, que assino com
Terry Grossman, falamos das três pontes que
Veja – Por que a tecnologia evolui dessa forma? levarão à extensão da vida. A primeira é a que
Kurzweil – Basicamente porque ela desenvolve pessoas como eu já estão trilhando, fazendo uso
certa capacidade e usa essa capacidade para do conhecimento existente para se manter em
chegar ao degrau seguinte. Os primeiros boa forma, envelhecendo o menos possível. Só
computadores levaram anos para ser criados assim poderemos cruzar a segunda ponte, que
porque foram feitos a partir de papel, caneta, fios será a reprogramação da biologia, resultado da
e chave de fenda. Agora utilizamos revolução da biotecnologia. Descobrimos
computadores para criar as próximas gerações recentemente que podemos ligar ou desligar
em questão de horas. Estamos sempre genes, adicionar novos, ligar enzimas e
empregando a última tecnologia para reprogramar a biologia, de modo a evitar
desenvolver a próxima, e ela vai ficando mais e doenças e envelhecimento. Isso também está
mais poderosa. avançando exponencialmente. Em dez ou quinze
anos vamos ter as ferramentas para superar o
Veja – O senhor afirma que chegará o momento processo de envelhecimento e de muitas
em que as máquinas vão superar a inteligência doenças. Eu mesmo envelheci bem pouco nos
humana. Como será isso? últimos dezoito anos. Quando tinha 40, minha
Kurzweil – Com a engenharia reversa, seremos idade biológica era 38. Agora tenho 58 e minha
capazes de reproduzir todas as áreas do cérebro idade biológica é 40 anos. Portanto, envelheci
humano. Vamos entender como funciona a dois anos em dezoito. Em 25 anos, espero
inteligência humana e utilizar esses métodos em continuar com idade biológica de 40. E até lá
computadores. Aí, combinando as formas em teremos ferramentas ainda mais poderosas.
que a inteligência humana é superior com as
formas em que as máquinas são superiores, Veja – E qual seria a terceira ponte?
teremos um poder muito grande: as habilidades Kurzweil – Os nanobots, que serão colocados no
da máquina, como velocidade e memória, corpo e nos manterão saudáveis de dentro para
combinadas com o reconhecimento de padrões fora. Parece ficção científica, mas muito disso já
da inteligência humana. Por volta de 2030, um está sendo desenvolvido e demonstrado em
animais. Um cientista já curou o diabetes tipo 1

Profª Ariane Scarelli FPD 53


em ratos com microrrobôs que controlaram a trabalho, em um ambiente totalmente criado. No
produção de insulina internamente. Outro, do futuro, teremos também a realidade virtual
MIT, fez uma conexão entre os nanobots e sobreposta à realidade real, como uma espécie
células cancerígenas e conseguiu destruí-las. de pop-up em uma camada acima da realidade
Levando-se em consideração a impressionante real, capaz de lembrar a pessoa de um nome, um
evolução dessa tecnologia, o cenário que prevejo aniversário, o que for.
é bastante realista. As pessoas da minha idade
poderão realmente continuar vivas e saudáveis Veja – A essa altura, ninguém mais vai poder se
por muito mais tempo. isolar em uma praia sem telefone, sem televisão,
sem computador, desconectado do mundo?
Veja – O que o senhor faz para cuidar da sua Kurzweil – Isso será possível, sim. Mas, com a
saúde? realidade virtual ligada ao sistema nervoso, com
Kurzweil – Eu tomo suplementos e sigo uma nanobots substituindo os sinais enviados pelos
dieta especial. Para cada aspecto do sentidos reais por sinais de um ambiente virtual,
envelhecimento – do cérebro, do olho, da pele, a pessoa poderá ir para alguma praia imaginária,
do sistema digestivo –, sigo um programa que talvez seja muito melhor do que as praias de
baseado em suplementos e aspectos verdade.
nutricionais. Também monitoro a saúde, vigiando
cerca de cinqüenta fatores do sangue. Acho que Veja – Vamos chegar ao ponto em que
vou indo muito bem. computadores farão tudo sozinhos, sem
interferência dos humanos?
Veja – Programas de inteligência artificial já são Kurzweil – No meu modo de ver, o homem vai
usados na leitura de eletrocardiogramas, para se fundir com a tecnologia. Teremos seres
decolar e aterrissar aviões, para guiar armas humanos com milhões de computadores no
inteligentes e até para tomar decisões sobre cérebro, híbridos de inteligência biológica e não-
investimentos. O que mais farão no futuro biológica. Esse tipo de cyborg ainda se
próximo? considerará humano. Eu também o considerarei
Kurzweil –Vamos ver a inteligência artificial lidar humano. Alguns já existem. Uma pessoa que tem
com a linguagem humana com muito mais a doença de Parkinson pode implantar neurônios
habilidade. As ferramentas de busca, em vez de artificiais para substituir aqueles que foram
procurarem uma palavra isolada, sem entender o destruídos. No futuro, porém, isso acontecerá de
que significa, vão compreender o que lêem e forma não invasiva. Não vamos poder entrar
poderão buscar conceitos. Vamos interagir com numa sala e separar, de um lado, computadores
agentes virtuais, na web, no telefone, em e, de outro, seres humanos. Será tudo misturado.
linguagem natural. As traduções automáticas
serão muito mais aperfeiçoadas. Minha empresa Veja – O senhor gosta de filmes de ficção
acaba de introduzir no mercado um equipamento científica?
portátil para cegos, que lê qualquer material Kurzweil – Não muito. Fico irritado com o fato de
impresso: outdoor, instruções numa caixa, a tela explorarem uma mudança e o resto continuar
do monitor no caixa automático, cardápio. Em igual. Em Inteligência Artificial, por exemplo,
alguns anos vamos acrescentar a capacidade de tirando os cyborgs semelhantes aos humanos,
descrever objetos e ambientes. nada mais mudava: a cafeteira era igual, os
carros eram iguais, não existia realidade virtual.
Veja – Computadores e telefones celulares É ridículo. A maioria dos filmes sobre o futuro faz
mudaram a vida da humanidade nos últimos dez isso. Eles ainda tendem a mostrar a tecnologia
anos. No futuro próximo, alguma outra tecnologia como uma coisa ruim, que causa destruição. Eu
terá impacto semelhante? não concordo, embora também não tenha uma
Kurzweil – Nós dois agora estamos em um visão utópica. Acho que continuaremos a ter
espaço de realidade virtual que incorpora um conflitos humanos e a tecnologia será usada para
sentido, a audição, pelo telefone. Nas próximas o bem e para o mal. Mas é inegável que ela mais
décadas, teremos imagens projetadas ajuda do que prejudica.
diretamente na retina, através de óculos, e
poderemos criar ambientes completos de Veja – Como nasceu Ramona, seu alter ego
realidade virtual. Ou seja, com a mesma virtual?
facilidade com que você fez esta ligação, nós Kurzweil – Em uma conferência de tecnologia,
poderemos estar sentados frente a frente no Taj entretenimento e design, em 2001. Coloquei
Mahal, numa praia do Mediterrâneo ou aí no seu sensores magnéticos na minha roupa, de forma

Profª Ariane Scarelli FPD 54


que os computadores captassem todos os meus Veja – E qual foi seu objetivo ao criar Ramona?
movimentos e, em tempo real, formassem uma Kurzweil – Mostrar que, em ambientes de
imagem bastante realista de uma jovem, realidade virtual, podemos ser outra pessoa.
Ramona, roqueira de 25 anos de Nova Orleans. Acompanhe meu raciocínio. No fim da década de
Ela basicamente se movimentava como eu me 2020, os nanobots instalados no cérebro
movimentava. Minha voz foi transformada na voz poderão desligar os sinais emitidos pelos
dela, usando outra tecnologia. A platéia me via e sentidos reais e substituí-los pelos sinais
também via Ramona, como se fosse ela que equivalentes vindos de um ambiente virtual. Aí
estivesse fazendo a apresentação. Foi muito teremos a realidade virtual diretamente no
intrigante. sistema nervoso e nos sentiremos realmente
dentro do ambiente virtual, incorporando todos
Veja – Como era se ver no corpo de outra, os cinco sentidos. Aliás, o design de ambientes
digamos, pessoa? virtuais será uma nova forma de arte. E a pessoa
Kurzweil – Conforme eu me olhava no monitor, vai poder escolher não só o ambiente como
era como olhar no espelho, só que, em vez de também seu corpo virtual. Quando mexer a mão
ver a imagem de sempre, eu via outra pessoa. na frente do rosto, mexerá a mão virtual, não a
Entrei mesmo no personagem e percebi que o real. Uma professora poderá pedir ao aluno que
corpo que eu tenho é apenas uma forma de eu seja um personagem histórico, e não apenas que
me expressar. No futuro, teremos experiências se vista como um. Poderemos explorar várias
como essa rotineiramente, e de maneira muito facetas da nossa personalidade.
mais realista.

Profª Ariane Scarelli FPD 55


ANEXO B – Revelados os empregos do futuro

Revelados os empregos do futuro

Paula Rothman, de INFO Online Domingo, 17 de janeiro de 2010 - 10h45

SÃO PAULO – Já pensou em trabalhar levarão a um maior uso do mundo virtual,


como organizador de clutter virtual, como hologramas, projeções 3D,
narrowcaster ou policial de alterações televisão 3D e realidade virtual.
climáticas?
Para cada uma dessas áreas há uma
Pois de acordo com uma pesquisa gama de oportunidades. As profissões
encomendada pelo governo inglês, deverão atendem às necessidades de
essas são algumas das profissões do uma população em envelhecimento, com
futuro. grande demanda pro alimentos e
cuidados com a saúde, sem deixar de
A Future of Jobs to Come lado o meio ambiente.
(http://sciencesowhat.direct.gov.uk/futur
e-jobs/future-jobs-what-might-you-be- Os cargos listados são uma
doing) ouviu 486 especialistas de 58 especulação, é claro – e misturam a
países em seis continentes para elaborar realidade com uma boa dose de
uma lista de 20 carreiras em alta nas imaginação - mas ajudariam a viver em
próximas duas décadas.O foco eram as um mundo cibernético, seja fornecendo
mudanças em tecnologia e ciências, e proteção legal ou até aconselhamento
quais empregos esses avanços para a criação de perfis virtuais.
poderiam gerar.
Os novos empregos que surgirão entre
Antes alista, no entanto, foi necessário 2010 e 2030
entender qual a realidade do mercado de
trabalho em 20 anos. 1. Fabricantes de partes do corpo:
avanços na ciência tornarão possível a
O mundo em 2030 fabricação de partes do corpo avulsas,
abrindo campo para fabricação,
Os especialistas prevêem que as fontes comércio e reparo dessas partes.
de energia alternativas, não nucleares,
sejam comuns em veículos, casas e 2. Nano-médicos: há um grande
escritórios, suprindo de 20% a 40% da potencial para desenvolvimento de
demanda nos países desenvolvidos. aparelhos em nanoescala aplicados em
novos procedimentos, que podem
O consumo de comida e energia deve transformar os cuidados pessoais. Uma
aumentar 50% se comparado a 2009, e nova nanomedicina será necessária
o de água 30%. para administrar esses tratamentos.

Novidades em tecnologia espacial 3. Fazendeiro de seres geneticamente


diminuirão o tempo das viagens e os modificados: alguém precisará se
avanços em tecnologias experimentais

Profª Ariane Scarelli FPD 56


especializar nos cuidados de plantas e monitorar quem pode, e como pode, realizar esse
animais geneticamente modificados. tipo de intervenção na atmosfera.

12. Advogado virtual: cada vez mais detalhes da


4. Consultor/gestor do bem estar na nossa vida vão para a rede, e especialistas são
velhice: especialistas irão reunir necessários para resolver disputas legais
conhecimentos de diversas áreas envolvendo a internet.
(farmacêutica, medicina, próteses,
psiquiatria entre outros) para ajudar a 13. Controlador de avatar e professor virtual:
tratar e cuidar das necessidades da entre os diversos usos futuros para um avatar
(daí a necessidade de se contratar
velhice. controladores), eles poderiam ser usados para
auxiliar ou substituir professor em salas de aula.
5. Cirurgião do aumento de memória: Assim, alguém que more nos Estados Unidos
novas tecnologias permitirão a médicos pode lecionar no Brasil: basta se conectar ao se
adicionar uma capacidade extra de avatar.
memória no cérebro.
14. Desenvolvedor de veículos alternativos:
voadores, nadadores, com materiais e
6. Cientistas para criar uma nova ética: combustíveis diferentes... Alguém precisará
avanços em áreas como clonagem pensar nos carros do futuro.
exigem uma nova ética que ajude a
sociedade a tomar decisões 15. Narrowcasters – um trocadilho com
conscientes. As perguntas não serão “broadcast”. Conforme a mídia se torna mais e
mais personalizada, especialistas terão que
mais “podemos fazer isso?” mas sim trabalhar com conteúdo sob medida para
“devemos?”. indivíduos.

7.Pilotos espaciais, guias de turismo e 16. Controlador de dados deletados:


arquitetos: com o turismo espacial, especialistas encontrarão uma maneira segura
pilotos,guias e designers serão de descartar dados sem que estes sejam
rastreados.
necessários para construir as moradias
no espaço e em outros planetas. 17. Organizador de clutter virtual: profissional
que ajuda a organizar nossas vidas eletrônicas,
8. Fazendeiros verticais: cidades terão como e-mail, armazenamento, IDs e aplicativos.
agricultura vertical, regadas hidroponicamente, e
exigirão pessoas com habilidades cientificas, de
18. Controladores de bolsa virtual/ pregão virtual:
engenharia e comércio.
assim como aconteceu com os bancos, as
transações das bolsas serão cada vez mais
9. Especialista em reversão das mudanças virtuais.
climáticas: uma nova classe de engenheiros
cientistas ajudaria a reduzir ou reverter os efeitos
19. Assistente social de networking: ajuda
das mudanças climáticas em locais específicos.
aqueles traumatizados ou marginalizados pelo
networking.
10.Reforço de quarentena: Equipes preparadas
para conter epidemias. Enfermeiras, para tratar 20. Personal brander: ajudam pessoas comuns
dos enfermos, e seguranças, para impedir a
uma se tornarem uma “marca” pessoal usando,
evasão de divisas, são alguns dos cargos
por exemplo, mídias sócias. Que personalidade
necessários.
você projeta via Twitter, blog, etc? Os valores
que passa são consistentes com suas metas?
11. Polícia de alterações climáticas: semear
nuvens para gerar chuva já é algo que acontece
no mundo. Com o avanço dessas e de outras
tecnologias, alguém terá que controlar e

Profª Ariane Scarelli FPD 57


ANEXO C – Os efeitos danosos da overdose de informação

Os efeitos danosos da overdose de informação26

Atualmente, as pessoas são bombardeadas com uma grande quantidade de


informações, das mais variadas fontes. Somente na internet, em 2000, já havia 550
bilhões de documentos, e a informação on-line estava crescendo à taxa de 7,3 milhões
de páginas por dia27. Estudos apontam que os funcionários recebem, em média, 192
mensagens por dia, seja por e-mail, voice mail, cartas, ou chamadas telefônicas28. Uma
edição diária da Folha de S. Paulo contém mais
informações do que aquelas a que uma pessoa comum “Não fico impressionado
com as informações que
que viveu na Idade Média teria acesso, ao longo de toda
meus amigos executivos
a sua vida. obtêm. Pelo contrário, fico
deprimido. Quanto mais
As pessoas estão começando a se sentir
computadores eles têm,
sobrecarregadas pela explosão de informações que quanto mais dados obtêm,
menos informação de fato
precisam para se manter atualizadas. O problema não
possuem, porque, sem
está na posse destas, mas na capacidade de separar as meias palavras, estão mal
direcionados. Estão
verdadeiramente importantes das que apenas parecem
desorientados com os
ser – e analisá-las a tempo de tomar alguma decisão. dados que seus
computadores produzem,
Ocorre, então, um fenômeno que vem sendo
não com a informação de
denominado de “ansiedade de informação”, ou seja, o que necessitam. O
computador é como a lista
“resultado da distância cada vez maior entre o que
telefônica: é preciso saber
compreendemos e o que achamos que devíamos compreender” o que se procura.”
29. É um buraco negro

entre dados e conhecimento, e que acontece justamente quando


PeteraDrucker,
informação nãodenos
Folha S.
diz o que queremos ou o que precisamos saber. Paulo, 22/04/2001.
Em 2004, a CIA e o FBI, órgãos de segurança do governo norte-americano,
apresentaram relatórios que indicavam que ambas as agências tinham diversas pistas
sobre o que aconteceria em 11 de setembro, como e-mails, telefonemas rastreados e

26
Texto extraído de Guimarães e Johnson (2007, p. 27).
27
TERRA, J. C. C; GORDON, C. Portais corporativos – a revolução na gestão do conhecimento. São Paulo: Negócio Editora,
2002.
28
Idem.
29
WURMAN, R. Ansiedade de informação – como transformar informação em compreensão. São Paulo: Cultura Editores
Associados, 1999.
Profª Ariane Scarelli FPD 58
similares. Estas permaneceram isoladas em sistemas diferentes, de forma fragmentada,
impedindo que fossem transformadas em informações que subsidiassem aqueles
órgãos na tomada de alguma ação preventiva.
Governos, empresas e cidadãos nunca tiveram tantas ferramentas para
encontrar e disseminar informações como agora. O perigo é que elas tornam mais difícil
distinguir o importante do banal.

Profª Ariane Scarelli FPD 59


ANEXO D – IBM se prepara para duelo entre homem e máquina

IBM se prepara para duelo entre homem e máquina30

Reuters

Sexta-feira, 14 de janeiro de 2011 - 12h03

YORKTOWN HEIGHTS, EUA - Um computador da IBM venceu uma rodada de teste no


popular programa de conhecimentos gerais Jeopardy!, diante de dois dos melhores
participantes humanos da disputa.

O resultado demonstra que a inteligência artificial avançou muito em sua capacidade de


simular como os seres humanos pensam.

"Criamos um sistema de computação com a capacidade de compreender a linguagem


humana natural, algo que é muito difícil para um computador", disse John Kelly, diretor
da IBM Research.

"No campo da inteligência artificial, as pessoas passam suas vidas tentando conquistar
avanços de alguns centímetros. O que o Watson faz e já provou é desenvolver uma
capacidade de avançar o estudo da inteligência artificial na escala dos quilômetros",
afirmou.

O computador, chamado de Watson em homenagem a Thomas Watson, lendário


presidente da IBM, serve como demonstração da competência da empresa na
computação e nas pesquisas científicas avançadas.

30
Disponível em: < http://info.abril.com.br/noticias/ti/ibm-se-prepara-para-duelo-entre-homem-e-maquina-14012011-15.shl>.
Acesso em 24/01/2011.
Profª Ariane Scarelli FPD 60
Também demonstra que a IBM, que chega aos 100 anos em 2011, deseja se manter na
vanguarda da tecnologia, ainda que companhias como Google e Apple se tenham
tornado as líderes do setor em termos de popularidade.

A IBM diz que a capacidade de compreender a linguagem humana faz do Watson uma
máquina muito mais desenvolvida que o Deep Blue, o supercomputador da empresa que
derrotou o campeão mundial de xadrez Garry Kasparov em uma série de partidas em
1997.

O maior desafio para os cientistas da IBM foi o de ensinar o Watson a distinguir entre expressões literais
e metafóricas, e a compreender trocadilhos e gírias.

Alimentá-lo com conhecimento é fácil. O Watson não está conectado à Internet, mas dispõe de um banco
de dados que cobre ampla gama de tópicos, entre os quais história e entretenimento.

Na sessão de treino conduzida quinta-feira no centro de pesquisa da IBM em um subúrbio tranquilo de


Nova York, o Watson demonstrou sua familiaridade com filmes musicais.

"O filme Gigi deu a ele a canção tema, ´Thank Heaven for Little Girls´", perguntou o apresentador Alex
Trebek. "Quem é Maurice Chevalier", respondeu o computador.

A máquina, que combina computadores Power7 da IBM do tamanho de refrigeradores, é muito grande
para caber no estúdio do programa e estava conectada remotamente.

Watson respondeu corretamente questões sobre Agatha Christie e a cidade de Jericó. A máquina venceu
a primeira parte do teste, ganhando 4.400 dólares, enquanto Ken Jennings, que venceu 74 vezes seguidas
durante a temporada de 2004 e 2005 do programa, ficou com 3.400 dólares. Brad Rutter, que já acumula
ganhos de 3,3 milhões de dólares no programa, ficou em último.

"Estou muito impressionado", disse Jennings, um ex-programador de computadores.

Uma vitória no show de verdade, que irá ao ar em 14, 15 e 16 de fevereiro, será um triunfo para a IBM,
que investiu cerca de 6 bilhões de dólares no ano passado em pesquisa e desenvolvimento.

Uma parte desse investimento, não informada pela empresa, foi para o que a companhia chama de
"grandes desafios" ou enormes projetos científicos de vários anos como o Watson e Deep Blue.

Apesar de Watson poder não se tornar um projeto comercial no curto prazo, executivos da IBM afirmam
que suas capacidades linguísticas e analíticas podem eventualmente ajudar a companhia a desenvolver
novos produtos em áreas como medicina diagnóstica.

Entretanto, Jennings, acredita que Watson pode ser vencido na competição de verdade. "Watson está
sujeito a erros", disse ele.

Rutter concordou, citando a fraqueza da máquina em compreender humor, uma parte importante de
algumas perguntas.

Em uma pergunta sobre o ator e músico Jamie Foxx, que aprendeu a tocar violoncelo, Watson deu como
resposta "quem é Beethoven?"

"Eu confundo os dois sempre", brincou Rutter sobre o erro da máquina.

Watson não riu, mas acabou vencendo a sessão de treinamento.

Profª Ariane Scarelli FPD 61


ANEXO E – Internet alcança marca de 2 bilhões de usuários no mundo, diz ONU

Internet alcança marca de 2 bilhões de usuários no mundo, diz ONU31

26/01/2011 - 13h11 / Atualizada 27/01/2011 - 09h55

Da Redação*

Segundo a agência de telecomunicações da ONU, no fim de 2010, 2,08 bilhões de pessoas tinham
acessado a rede.

O número de usuários da internet alcançou, no fim de 2010, a marca de 2 bilhões de usuários, disse
Hamadoun Toure, responsável pela agência de telecomunicações da ONU (Organização das Nações
Unidas), nesta quarta-feira (26).

De acordo com a agência, nos últimos dias do ano, o número estimado de internautas era de 2,08
bilhões. Na mesma data, em 2009, o número de pessoas que acessaram a internet no mundo era de 1,86
bilhão. Com essa marca, e considerando que a população mundial é de 6,8 bilhões, é possível dizer que
quase uma pessoa a cada três do mundo já navegou na rede. Da grande massa de internautas que
acessou a web em 2010, 57% são de países em desenvolvimento.

No que diz respeito a assinatura de banda larga fixa no mundo, o índice já ultrapassou a faixa do meio
bilhão de usuários. No fim de 2010, a ONU contabilizou 555 milhões de usuários. Já o número de banda
larga móvel foi bem maior: 940 milhões.

O maior crescimento no número de pessoas que acessam à internet ocorreu na Ásia e no Pacífico
somando mais de 100 milhões de usuários. Ao todo, a região contabilizou 857 milhões – grande parte
dessa quantia deve-se à população da China que usa a rede.

31
Disponível em: <http://tecnologia.uol.com.br/ultimas-noticias/redacao/2011/01/26/internet-alcanca-marca-de-2-bilhoes-de-
usuarios-diz-onu.jhtm>. Acesso em 01/02/2011.
Profª Ariane Scarelli FPD 62
No entanto, a maior densidade de acesso ainda é na Europa, seguida pelas Américas, nos países que
faziam parte da república soviética e países árabes. Essas duas últimas regiões têm apresentado
crescimento constante. Só nos países árabes, por exemplo, dobrou o número de internautas em cinco
anos. Hoje estima-se que há 88 milhões.

Telefonia

O número de assinaturas de telefones móveis passou a marca simbólica de 5 bilhões, comentou o


secretário geral da agência de telecomunicações da ONU a jornalistas.“No começo de 2000 havia apenas
500 milhões de assinaturas de serviços móveis no mundo e 250 milhões de usuários da internet.”

O número contabilizado pelo órgão da ONU é de 5,28 bilhões de assinaturas no mundo no fim do ano
passado, comparado a 4,66 bilhões de 2009. “A grande alta do número de assinaturas de telefonia móvel
está diminuindo e nós não teremos mais crescimentos na casa dos dois dígitos”, disse Susan Teltscher,
chefe de informações de mercado e estatística do ITU – órgão da ONU da área de telecomunicações.

As linhas fixas têm apresentado queda nos últimos quatro anos. Atualmente, no mundo, estima a ONU,
há 1,2 bilhão de assinaturas.

* Com informações da AFP

Profª Ariane Scarelli FPD 63


ANEXO F – Programação: Como escrever um código limpo?

Programação: Como escrever um código limpo?32


Por Marvin Ferreira | 3 de fevereiro de 2011

Todos nós estamos cansados de ouvir o quanto escrever um bom código é essencial
para o desenvolvimento de qualquer projeto, e que caso não sigamos essa linha de
pensamento teremos os ruins e velhos problemas conhecidos, como por exemplo:

 Problemas com a leitura do código: um código mal escrito o torna ilegível, fazendo
com que o próprio desenvolvedor que o escreve, caso volte a ler aquele trecho
algum tempo depois, corre o risco de não entender o que ele mesmo havia escrito.
 Problemas com manutenibilidade: um código ilegível consequentemente dificulta
a manutenção e extensão das funcionalidades do sistema, fazendo com que esse
processo seja complicado e desgastante para o programador que venha a
executá-lo.

Já ouvi muito na faculdade a seguinte frase:


“às três da madrugada de um domingo você
não enxerga mais nada” (Prof. Dr. Ítalo
Vega). Esta frase está intimamente ligada ao
fato da importância de você ter um código
limpo e bem escrito. Pense na seguinte
situação: você procurando um bug em uma
função que não foi você quem a escreveu, e
às 19hrs de uma sexta-feira, em uma
aplicação que entrará em produção no
sábado (o que é muito comum de acontecer). Se caso o programador que tenha escrito
aquela função, um simples pedaço da aplicação, não tenha se preocupado com uma
boa prática em codificação provavelmente fará com que você fique madrugada à dentro
lendo e relendo todas aquelas linhas até entender o que de fato elas fazem, até
encontrar o erro e finalmente corrigí-lo.

Levar mais tempo para fazer manutenção significa que você gastará mais dinheiro para
estender ou corrigir pequenas funcionalidades, e gastar dinheiro além do previsto é uma
das coisas que nenhum gerente de projetos gosta.

Sendo assim, como podemos codificar de modo que tenhamos um código limpo, legível
e produtivo?

32Disponível em: <http://www.profissionaisti.com.br/2011/02/programacao-como-escrever-um-codigo-limpo/>. Acesso em


23/12/2011.
Profª Ariane Scarelli FPD 64
Alguns princípios básicos envolvem:

 Escolher bons nomes para suas variáveis, nomes significativos e que estejam de
acordo com o contexto empregado são tão importantes quanto todo o código
escrito. Dar bons nomes as suas variáveis faz com que todos que leiam seu
código compreendam o real motivo dela estar sendo utilizada, facilitando a leitura
e compreensão do código.
 Uma função deve fazer apenas UMA coisa, leia isso novamente! Uma função
que desempenha mais de uma tarefa torna ainda mais complexa a sua
compreensão e se transforma em uma função “bombril”, um pedacinho de código
com mil e uma utilidades, o que na hora da manutenção se tornará em um
monstro de 7 cabeças, ou dependendo do código escrito 7^7 cabeças.
 Dar bons nomes a funções é tão importante quanto dar bons nomes a variáveis,
os nomes dados a funções devem expressar literalmente o que elas fazem de
modo que um programador não precise ler o código inteiro de uma função para
entender o que ela faz. Um problema ainda muito encontrado são funções em
que seu nome não possuí nenhuma relação com o código que descreve o seu
verdadeiro comportamento, o que irá confundir o desenvolvedor que usar está
função pois ele perceberá que o que ela promete cumprir não condiz com o que
ela de fato faz.
 A melhor forma de darmos bons nomes a funções e variáveis é fazermos uma
análise do domínio do problema que estamos tentando solucionar, assim
podemos extrair boa parte dos nomes que representam de fato os elementos que
usaremos para solucionarmos o problema.
 Ainda falando sobre funções um outro aspecto muito importante é o seu tamanho,
funções não devem ser grandes demais e caso sejam isso é um sinal de que algo
está errado. Não podemos definir exatamente o que é um tamanho bom ou o que
é um sinal de que temos um problema à vista, antigamente programadores
consideravam o tamanho da tela uma boa métrica para o tamanho de funções
porém hoje em dia temos diversos tamanhos de monitores, o que faz com que
essa não seja a maneira correta de medirmos o tamanho de uma função.
Podemos considerar uma função de tamanho ideal quando a sua quantidade de
linhas está na faixa de 15 a 20 linhas, o que é suficiente para desempenhar
apenas uma atividade, mas é claro que em alguns momentos isso pode variar
para mais ou para menos dependendo do contexto que a qual função pertence
fazendo com que tenhamos que usar o bom senso.

Profª Ariane Scarelli FPD 65


Princípios como estes nos ajudam a desenvolver códigos de maior qualidade, fazendo
com que tenhamos maior produtividade e torne prazerosa a escrita de qualquer que seja
a funcionalidade que o sistema exija, influenciando na manutenibilidade e
complexididade do que é produzido, ou seja, são de extrema importância em nosso dia-
a-dia.

Recomendo como leitura sobre boas práticas e como escrever um bom código o livro
“Código Limpo” de Robert C. Martin, este livro trata a fundo estes pontos e muitos outros
considerados indispensáveis para que possamos obter um código bem escrito e
funcional.

Ame o seu código, pois ele descreve o profissional que você é.

Esqueci algum princípio para código limpo? Deixe seu comentário!

Até a próxima!

@marvinferreira

Profª Ariane Scarelli FPD 66


ANEXO G – Depois do controle remoto33

33
Revista Veja, Ed. 2252 de 18/01/2012, Vida Digital, p. 92-94.
Profª Ariane Scarelli FPD 67
Profª Ariane Scarelli FPD 68
Profª Ariane Scarelli FPD 69
ANEXO H – Cientistas criam o menor transistor do mundo: um átomo

19/02/2012 - 16:18 – Computadores

Cientistas criam o menor transistor do mundo: um átomo34

Tecnologia abre caminho para a construção de computadores mais rápidos


A unidade básica da matéria poderá se tornar a unidade básica da computação. Físicos australianos
conseguiram construir um transistor a partir de um único átomo de fósforo posicionado em uma folha de
silício, o material predileto dos fabricantes de processadores de computador. Não é o primeiro transistor
do tipo, mas a nova iteração é muito mais precisa que os antecessores, o que a tornaria muito mais útil.
O trabalho foi publicado neste domingo no periódico britânico Nature Nanotechnology.

Especialistas já haviam previsto que os transistores chegariam ao tamanho de um átomo até 2020. A
previsão vai de acordo com a Lei de Moore. Ela diz que o número de componentes na mesma placa de
silício dobra a cada 18 meses. Atualmente, os menores transistores do mundo podem chegar a 22
nanômetros. Um nanômetro equivale a um milímetro dividido por um milhão.

Os especialistas da universidade australiana combinaram técnicas tradicionais de fabricação


de transistores e um microscópio especial para fabricar o dispositivo atômico. O novo transistor
funciona a uma temperatura baixíssima: abaixo de -272,15 graus célsius, menos de um grau acima do
limite mínimo de temperatura do universo.
Além disso, segundo os criadores do transistor,
a fabricação é complicada. Contudo, os
Saiba mais especialistas afirmam que, caso os fabricantes
TRANSISTOR queiram produzir processadores ainda menores,
Um transistor é basicamente um interruptor que eles serão forçados a adotar a tecnologia. "É
permite ou impede a passagem de corrente uma das únicas técnicas que permitem a
elétrica. Esse liga-desliga resulta no 0 (desligado) construção de dispositivos com apenas um
ou 1 (ligado) da linguagem de computador. Essa átomo", disseram.
linguagem é traduzida em programas e
funcionalidades nos dispositivos. Os A descoberta dos pesquisadores da
processadores mais modernos podem ter mais de Universidade de South Wales, na Austrália,
um bilhão de transistores em uma única placa de pode permitir que o transistor de um átomo
silício. Atualmente, os menores transistores chegue ao mercado antes do previsto, abrindo
chegam a ter 22 nanômetros. Um nanômetro caminho para fabricantes entenderem como os
equivale a um milímetro divido por um milhão. O dispositivos vão funcionar quando chegarem ao
objetivo dos fabricantes é diminuir cada vez mais o limite atômico. Agora, os cientistas precisam
tamanho dos transistores. Quanto mais se coloca descobrir como fazer para que os novos
em uma única placa, mais poder de transistores funcionem em conjunto.
processamento.

34
Disponível em: <http://veja.abril.com.br/noticia/ciencia/cientistas-criam-o-menor-transistor-do-mundo-um-atomo>. Acesso em:
20 fev. 2012.
Profª Ariane Scarelli FPD 70
ANEXO I – Tablets e notebooks chegam mais perto de extinguir PC de mesa

Profª Ariane Scarelli FPD 71


Profª Ariane Scarelli FPD 72
Profª Ariane Scarelli FPD 73
ANEXO J – Quer ganhar mais? Seja um craque de TI

Quer ganhar mais? Seja um craque de TI35

Só no último ano, vencimentos da área cresceram quase 11% em média. Em algumas


especialidades, alta ultrapassa os 30%

Por Por James Della Valle

Carreira em TI: Bons salários dependem do empenho dos profissionais (Rich Yasick )

O acelerado avanço tecnológico nas últimas duas décadas trouxe inumeráveis vantagens para bilhões
de pessoas e empresas em todo o mundo. É impossível não reconhecer os benefícios de controlar
gastos no computador pessoal, pagar contas via internet confortavelmente sentado no sofá e usar o
celular em trânsito para falar com alguém em (quase) qualquer parte do planeta. Por trás de todos esses
serviços, há um exército que dá duro para garantir que os bits circulem corretamente de um lado para
outro: são os profissionais de tecnologia da informação – ou simplesmente TI. E eles também têm se
beneficiado com o vertiginoso avanço. Levantamento inédito feito pelo Catho Online, serviço que reúne
ofertas de empregos e currículos, revela que, só no último ano, os salários de TI no Brasil cresceram em
média 10,78% – 60% acima da inflação. Em algumas especialidades, como programação, a alta chega
a impressionantes 38%.

O estudo ouviu 260.000 profissionais – pouco mais de um quinto das 1,2 milhão de pessoas que atuam
na área no Brasil. Entram no cálculo funcionários de empresas com níveis variados de experiência e
tempo de serviço, além de consultores. Foram rastreados os vencimentos de profissionais que atuam
nas cinco regiões do país, divididos em 15 subáreas de TI, cada uma delas subdividida em níveis
hierárquicos de gerência, coordenação e desenvolvimento (profissional júnior, pleno ou sênior). Dessa
forma, foram consideradas 48 diferentes funções, o que revelou o bom momento: em 41 delas, a média
salarial subiu no último ano. Confira abaixo a média salarial de uma das áreas de TI nas cinco regiões
do Brasil, segundo dados coletados em janeiro.

"A tecnologia está presente em todos os setores da economia moderna. Isso vem colaborando para o
crescimento dos salários e para a maior penetração das empresas em diversas regiões do país", afirma

35
Revista Veja – Carreiras. 01 mar. 2012.
Profª Ariane Scarelli FPD 74
Sergio Sgobbi, diretor de educação e recursos humanos da Associação Brasileira de Empresas de
Tecnologia da Informação e Comunicação (Brasscom). O Brasil já pode ser considerada uma potência
regional de TI. Em 2011, o mercado brasileiro de tecnologia da informação movimentou 11 bilhões de
dólares, segundo dados da consultoria Frost & Sullivan, um crescimento de 11,5% em relação ao ano
anterior. Com os números, o país já responde por metade do mercado de tecnologia da América Latina.

Os dados animadores da Catho corroboram outro estudo, que analisou a tendência dos vencimentos do
setor até 2014. O levantamento – parceria entre a Brasscom e o Cadastro Geral de Empregados e
Desempregados (Caged) – concluiu que os salários de entrada, pagos a quem começa na área,
deverão receber um incremento de cerca de 18% até 2014. O estudo mostrou também que, em outubro
de 2011, os novatos receberam 1.977 reais nos estados de São Paulo, Rio de Janeiro, Bahia, Minas
Gerais, Paraná, Pernambuco, Rio Grande do Sul e também no Distrito Federal – identificados como
polos de tecnologia. O valor é 31,89% superior à média salarial brasileira, de 1.499 reais.

Fonte: Catho Online (2012)

Administração de Banco de Dados

É o segmento que cuida de todas as informações eletrônicas armazenadas por uma empresa. No caso
de instituições financeiras, por exemplo, esses dados incluem nomes de clientes e até valores de
transações monetárias efetuadas por grandes corporações.

Sim, é um ótimo momento para quem já está na área e uma grande oportunidade para quem quer entrar
nela. Apesar de tantos atrativos, o curioso é que, ao lado do aquecimento do mercado, o déficit de mão
Profª Ariane Scarelli FPD 75
de obra é apontado como razão da elevação dos salários. Estima-se que haja 115.000 vagas não
preenchidas à espera de profissionais qualificados. Até 2025, o número pode chegar a 500.000 postos
de trabalho, segundo estimativas do Sindicato dos Trabalhadores em Processamento de Dados e
Tecnologia da Informação do Estado de São Paulo (Sindpd). "As empresas estão percebendo a
necessidade de remunerar melhor seus funcionários. Aquelas que não seguirem a tendência, serão
obrigadas a aprender a operara sem eles", afirma Antonio Neto, presidente do Sindpd.

Profissionais em alta

Daniel Urbano, programador


"Em 11 anos de carreira, meu salário cresceu 400%. Entre 2010 e 2011, o aumento foi de 15%. Depois de anos no
mercado, estou feliz com minha remuneração"

Fernando Galdino,
especialista de banco de dados
"No ano passado, notei um aumento de 7% no meu salário. Hoje, a área de paga bem, tanto nas capitais quanto no
interior do país"

Os bons ventos que sopram na área de TI não levarão todos os interessados ao mar da prosperidade.
Se, por um lado, não há regulamentação profissional no setor – o que dispensa a necessidade de
apresentação de um diploma –, por outro, as demandas a que são submetidos os profissionais mudam
tão rapidamente quanto a tecnologia. Se há apenas dois anos os microprocessadores de dois núcleos
(dual-core) desafiavam e encantavam os profissionais que atuam na área, atualmente o foco de atenção
são os chips com quatro núcleos (quad-core), muito mais rápidos e potentes.

"O Brasil conta com bons profissionais no mercado", diz Shuji Shimada, diretor da People Consulting,
empresa especializada em recrutamento na área de TI. "Contudo, num cenário de grandes mudanças e
crescimento acelerado, cresce exponencialmente a exigência de atualização."

Na área de TI isso significa uma sólida formação técnica aliada à aquisição praticamente constante de
certificados específicos. Eles atestam que um profissional domina determinada tecnologia e está apto a
lidar com ela diariamente. É uma exigência do mercado e das empresas empregadoras. O caminho não
é fácil, mas, como mostram os indicadores da área, é recompensador. "A tecnologia da informação é
base para tudo, não há processo sem apoio tecnológico", diz Shimada.

Profª Ariane Scarelli FPD 76


ANEXO K – Quais as diferenças entre Notebook e Ultrabook?

Quais as diferenças entre Notebook e Ultrabook?36

Fique por dentro dos Ultrabooks e dos notebooks e saiba qual dessas máquinas é a melhor para você.
(Artigo atualizado em 29/01/2014)

Primeiro, vieram os notebooks. Depois, surgiu sua versão em miniatura e com uma configuração mais
básica, os chamados netbooks. Não demorou muito tempo para os tablets também tomarem conta do
mercado. Mas, como a tecnologia não para de inovar, outro tipo de tecnologia portátil invadiu o
mercado: os Ultrabooks.
À primeira vista, talvez você não perceba a diferença entre essa categoria e seus antecessores. Mas é
bom ficar atento porque os Ultrabooks contam com algumas características específicas e também
várias vantagens.
Desde 2011, a Intel determina as regras específicas que caracterizam um Ultrabook (que é sempre um
tipo de notebook Intel ), e que acompanham a popularização e a evolução tecnológica dos aparelhos.

Ultrabooks antigos: o que era necessário

Com o avanço constante da tecnologia, a Intel atualiza alguns critérios sobre a configuração
dos Ultrabooks a cada geração.
Anteriormente, um Ultrabook precisava ter, por exemplo, 5 horas ou mais de autonomia de bateria e
armazenamento SSD. Além disso, o processador deveria ser Intel, a partir da segunda geração (Sandy
Bridge). Conclusão: notebook leve, com boa autonomia e bom processamento.

Entre as novas exigências, processador Intel 4ª Geração

36
Disponível em:< http://www.zoom.com.br/notebook/deumzoom/quais-as-diferencas-entre-notebook-e-ultrabook>.
Acesso em: 06 fev. 2014.

Profª Ariane Scarelli FPD 77


As versões atualizadas de um Ultrabook pedem um pouco mais do que isso. Por exemplo, o
processador deve ser da 4ª Geração da Intel (chamado de Haswell, lançado em meados 2013) e o
aparelho deve ser compatível com controle de voz. Já a espessura tem que ficar até 23mm.
Apesar das atualizações, ainda é possível encontrar nas lojas modelos de Ultrabooks com a
configuração baseada nas exigências anteriores da Intel.

Tablets x Ultrabook

No geral, o Ultrabook reúne algumas características de tablets , como design mais fino, alta velocidade
de resposta e navegação, além de ligar e desligar mais rapidamente.
Apesar dessa possibilidade de ficar pronto para usar em pouco tempo já ser encontrada em alguns
notebooks com SSD, ele é uma referência na configuração dos Ultrabooks. Aliás, outra regra dos
Ultrabooks mais modernos: devem sair do modo de Hibernação em, no máximo, 3 segundos.
A aproximação entre os Ultrabooks e os tablets é cada vez maior, tanto que um Ultrabook
touchscreen é outra das novas exigências. Inclusive, a Intel incentiva a fabricação dos modelos
chamados de Ultrabook conversível, que podem ser usados como um notebook ou como um tablet.

Bateria poderosa e fácil integração com outros aparelhos

Outro fator importante dos Ultrabooks é a autonomia da bateria, ou seja, quanto tempo ele funciona
sem precisar ser ligado na tomada. Nas primeiras gerações, esse tempo era de 5 horas. Agora, segundo
a Intel, os Ultrabooks precisam garantir 6 horas de reprodução de vídeo em Full HD, 9 horas com o
Windows “parado” (note ligado, sem usar, antes de entrar em stand by) e 7 dias em stand by (quando o
note para de processar, mas não desliga completamente).
Com a evolução das formas de integração e transferência de arquivos entre equipamentos, esse ponto
não poderia ser deixado de fora. Os Ultrabooks devem ter tecnologia Wi-Fi que transmite vídeos do
note em TVs compatíveis, sem uso de fios, parecido com o DLNA.

Armazenamento mais seguro, com aumento de velocidade

Mais um diferencial dos Ultrabooks, e que também está presente em alguns notebooks, é o
armazenamento SSD. O SSD é um tipo de “HD” baseado em memória flash, que funciona em alta
velocidade e já está por aí em pen drives e cartões de memória.
É possível encontrar modelos com capacidade de até 512GB de SSD, mas a maioria fica
entre Ultrabooks 32GB SSD (que serve mais para dar velocidade nas tarefas como ligar, desligar e abrir
programas) e Ultrabooks 128GB SSD , tanto em modelos de notebooks, quanto Ultrabooks.
Um detalhe do armazenamento SSD é que ele ocupa menos espaço físico e é mais resistente a quedas
e choques que o HD (Hard Disk) convencional. Por outro lado, é uma das características que encarecem

Profª Ariane Scarelli FPD 78


o preço do notebook e do Ultrabook, além de ainda não contar com grande capacidade de
armazenamento.
Outra característica de notes ou Ultrabooks com armazenamento do tipo SSD é o recurso Instant On,
que é a capacidade de ligar, desligar e sair do modo hibernação bem rápido, sem aquela história de ligar
o computador e ir tomar um café enquanto ele fica “pronto” para usar.

Afinal, vale a pena comprar um Ultrabook?

Os Ultrabooks tinham a fama de “ultracaros”, pois costumavam custar bem mais do que notebooks com
boa configuração. Mas isso também mudou, pois é bem possível encontrar modelos de Ultrabooks que
se equiparam aos notes, no preço e na configuração.
Claro que a época de lançamento de cada equipamento também deve ser considerada, por exemplo,
um notebook lançado recentemente pode ser mais potente e mais caro do que um Ultrabook lançado
há cinco anos.
Então, se você quer um aparelho fácil de carregar e com bateria pronta para funcionar por longos
períodos de tempo, o mais provável é que encontre um modelo de Ultrabook que vá te atender,
principalmente porque essas novas configurações exigidas pela Intel garantem que você irá comprar um
aparelho top de linha.

Profª Ariane Scarelli FPD 79


ANEXO L – Internet: 25 anos do WWW

Internet: 25 anos do WWW37

No dia 12 de março de 1989, Tim Berners-Lee criava o WWW que


mudaria o mundo

Redação Olhar Digital 12/03/2014 01h03 Internet tim berners-lee


Há 25 anos, numa pequena sala do CERN, Organização Europeia para Pesquisas Nucleares, um
cientista chamado Tim Berners-Lee lançava as bases para uma das maiores revoluções da
história da humanidade: a criação da World Wide Web, ou a WWW, como ficou conhecida
quando se espalhou pelo mundo.

37 Disponível em: <http://olhardigital.uol.com.br/noticia/40769/40769>. Acesso em: mar. 2014.


Profª Ariane Scarelli FPD 80
O CRIADOR

Sir Timothy Berners-Lee é um físico inglês, nascido em Londres em 8 de junho de 1955.


Enquanto trabalhava para o CERN, uma das preocupações de Berners-Lee era em como
preservar e difundir a informação que era gerada pelos experimentos: ele entendia que
se essa informação pudesse ser facilmente acessada por mais cientistas, a velocidade
das pesquisas poderia ser aumentada. Apoiando-se em ideias que já vinham sendo
maturadas desde a década de 50 (o termo hipertexto, por exemplo, foi usado pela
primeira vez por Ted Nelson pouco depois do fim da Segunda Guerra Mundial),
Berners-Lee criou o conceito de uma matriz de informação.

Ao invés de acessarmos as informações usando a lógica de uma árvore, ele imaginou


que poderíamos acessar essas mesmas informações usando círculos e setas. Ou seja, as
setas funcionam como os links que nos levam por diferentes lugares, para diferentes
círculos de informação. Estava criado o conceito básico, que acabou evoluindo e se
transformando na Web como conhecemos hoje.

O DOCUMENTO ORIGINAL

Talvez o mais surpreendente do primeiro documento proposto por Berners-Lee (que


você pode conferir aqui) é que alguns dos conceitos - e até mesmo dos termos que se
tornaram tão comuns hoje em dia - já estão lá: browsers, como programas de
computador, hiperlinks (ou links) como maneiras de pular de um conjunto de
infomações para outro, além, é claro, do termo WEB, que definiria boa parte da vida do
Profª Ariane Scarelli FPD 81
final do século XX e desse começo de século XXI.

Quase dois anos depois, em 6 de agosto de 1991, Berners-Lee colocou no ar o primeiro


site de internet, o info.cern.ch. Claro que este primeiro site era bastante rudimentar,
exibia apenas texto e usava como servidor uma máquina NeXT. Infelizmente, não
sobrou registro dessa página original. Uma versão de 1992 pode ser conferida no site
do World Wide Web Consortium.

Uma curiosidade é que os computadores NeXT eram fruto de uma empresa de mesmo
nome criada por Steve Jobs no período em que ele esteve afastado da Apple. O
propósito da NeXT era justamente criar computadores que atendessem a comunidade
acadêmica. Mais tarde, boa parte do sistema operacional que comandava os
computadores NeXT foi convertida no Mac OS, sistema operacional que viria a equipar
os computadores da Apple.

25 ANOS DEPOIS

Passado um quarto de século, a Web é um dos grandes motores da economia moderna


(basta lembrar que empresas como Google, Facebook ou Yahoo! simplesmente não
existiriam). Mais que isso, a Web talvez seja a maior marca da evolução tecnológica que
pode fazer a humanidade realmente mudar o patamar da história numa velocidade
inédita. A Web já alcança bilhões mundo afora e transforma a vida de indivíduos,
empresas e nações por onde passa, num processo que está apenas em sua infância.
Para celebrar os 25 anos de Web, foi criado um site especial, que você pode
conferir aqui. Nas redes sociais, a hashtag #web25 está sendo usada para celebrar a
data. Logo abaixo, você confere um vídeo especial, gravado por Tim Berners-Lee para
comemorar a data.

Profª Ariane Scarelli FPD 82


ANEXO M – Computador pessoal faz 33 anos. Conheça a história do IBM PC

Computador pessoal faz 33 anos. Conheça a história do IBM PC38

IBM PC 5150 popularizou o computador e fez com que a Microsoft se tornasse um


gigante

Getty Images
5150 PC, criado pela IBM, inaugurou era dos PCs
No início dos anos 1980, computador era coisa de nerd. Empresas como Apple, Osborne
e MITS (do Altair) já fabricavam computadores pessoais. Mas os equipamentos eram
difíceis de usar e tinha utilidade limitada.

Isso mudou em 12 de agosto de 1981, quando a poderosa IBM lançou seu primeiro
computador voltado para o usuário final: o IBM PC 5150. Com preço de US$ 1.565, ele
era o modelo mais barato lançado pela empresa e era voltado tanto para escritórios
como para uso doméstico.

A entrada da IBM no mercado de computadores pessoais mudou completamente o


mercado. Conhecida do público médio e com contratos polpudos com governos e

38
Disponível em: <http://tecnologia.ig.com.br/2014-08-12/computador-pessoal-faz-33-anos-conheca-a-historia-do-ibm-pc.html>.
Acesso em 6 fev. 2017.
Profª Ariane Scarelli FPD 83
companhias de grande porte, a IBM trouxe credibilidade ao mercado e foi fundamental
para popularizar o computador como ferramenta de trabalho e lazer.

As especificações do 5150 eram poderosas para a época, mas hoje em dia seriam
amplamente superadas pelo celular mais barato. O computador tinha apenas 16 KB de
memória RAM. Para efeito de comparação, smartphones avançados de hoje podem ter
até 3 GB de RAM, mais de 187 mil vezes o valor do IBM PC. A memória de disco rígido
era de apenas 40 KB. Atualmente, qualquer notebook vem com pelo menos 500 GB,
mais de 12 milhões de vezes mais do que o PC da IBM.

FOTOS: computadores que marcaram época

Profª Ariane Scarelli FPD 84


Profª Ariane Scarelli FPD 85
Profª Ariane Scarelli FPD 86
Profª Ariane Scarelli FPD 87
Profª Ariane Scarelli FPD 88
Profª Ariane Scarelli FPD 89
Profª Ariane Scarelli FPD 90
Profª Ariane Scarelli FPD 91
Sucesso imediato
O IBM PC 5150 foi um sucesso de vendas. Segundo matéria do Guardian , a expectativa
inicial da empresa era vender 240 mil unidades em cinco anos, mas essa marca foi
batida em apenas um mês. A IBM continuou a liderar as vendas globais de PC até 1994,
quando foi ultrapassada pela HP.
Ironicamente, alguns dos fatores que levaram ao sucesso do 5150 foram responsáveis
pelo sucesso também da concorrência. A equipe que criou o primeiro PC trabalhou fora
do modelo rígido e fechado da IBM, usando peças e tecnologias de fornecedores
externos para montar a máquina, em vez de desenvolver internamente todos os
componentes usados.

Entretanto, como nenhuma parte vital do 5150 era exclusiva da IBM, ficou fácil para
outras empresas copiarem o design do produto e criarem PCs mais baratos, com as
mesmas especificações.

IBM PC foi vitória Microsoft


Essa onda de clones beneficiou fortemente duas empresas. A primeira foi a Intel. A
arquitetura do chip 8088 usado no IBM PC logo se tornou padrão de mercado e a
fabricante de chips passou a vender seu produto para dezenas de outras empresas.

A segunda empresa foi a Microsoft. A IBM precisava de um sistema para seu PC e Bill
Gates forneceu a solução, com uma versão do DOS para o IBM PC. Como o sistema não
era exclusivo, a Microsoft passou a vendê-lo também para as concorrentes da IBM e
rapidamente se tornou a maior produtora de software do mundo. Foi o início da
Profª Ariane Scarelli FPD 92
parceria "Wintel" (Windows + Intel), que até hoje domina a computação pessoal em
todo o mundo.

Venda para Lenovo


A concorrência cada vez mais acirrada e com baixas margens de lucro do mercado de
PCs levou a IBM a vender sua divisão de computação pessoal para a Lenovo. Após a
venda, realizada em dezembro de 2004, a IBM passou a funcionar apenas como
provedora de serviços corporativos e incubadora para novas tecnologias.

Ironicamente, nove anos depois, a Lenovo passou a ser a maior fabricante de PCs do
mundo. A empresa chinesa desbancou a HP, que havia superado a IBM em 1994 e por
quase 20 anos havia liderado a lista. Atualmente, de acordo com os dados mais
recentes do IDC, a Lenovo lidera o mercado de PCs com fatia de 19,6%, seguida por HP
(18,3%), Dell (14%), Acer (8,2%) e Asus (6,2%).

Atualização 12/08/2014 - 11h22: matéria atualizada com a informação de que o sistema da


Microsoft usado no 5150 foi o DOS, e não o Basic. Agradecimentos ao leitor Decio Oliveira.

Profª Ariane Scarelli FPD 93


ANEXO N – Entendendo os SSDs

Entendendo os SSDs39
Carlos E. Morimoto (4/out/2011)

Introdução

Os SSDs ou "Solid State Disks" (discos de estado sólido) são possivelmente a maior revolução dentro
do ramo dos HDs desde o IBM 350, já que eles utilizam um princípio de armazenamento completamente
diferente, com os discos magnéticos dando lugar aos chips de memória Flash:

A vantagem óbvia dos SSDs é que eles oferecem tempos de acesso muito baixos, combinados com
excelentes taxas de leitura e gravação em setores aleatórios, onde mesmo os melhores HDs
magnéticos oferecem apenas alguns poucos MB/s. Isso melhora o desempenho consideravelmente em
uma grande gama de aplicativos e reduz bastante o tempo de boot, tornando o sistema muito mais
responsível.

Os SSDs também oferecem um consumo elétrico mais baixo (o que os tornam um componente atrativo
especialmente para os notebooks), são silenciosos, resistentes a impactos e oferecem uma melhor
segurança contra perda de dados devido a defeitos de hardware, já que não possuem partes móveis.

A grande desvantagem por outro lado é o custo por megabyte, já que em vez de combinar 4 discos
magnéticos de 500 GB cada um para criar um HD de 2 TB, você precisa juntar 20 chips de memória

39
Disponível em: <http://www.hardware.com.br/tutoriais/entendendo-ssd/>. Acesso em: 24/abr/2015.
Profª Ariane Scarelli FPD 94
Flash de 8 GB cada para criar um SSD de apenas 160 GB. Quanto mais gigabytes, mais chips, o que
leva os preços dos drives de maior capacidade para as alturas.

Os primeiros SSDs para uso doméstico começaram a chegar ao mercado em 2007, mas por serem
muito caros (pense em US$ 500 por um SSD de 32 GB) eles receberam pouca atenção. Apenas
recentemente (final de 2009) os SSDs começaram a chegar com mais força, liderados pela série X25 da
Intel e modelos da Kingston, Corsair, OCZ, Super Talent e outros fabricantes menores, que se
especializaram em vender versões OEM de drives da Samsung, Indilinx ou até mesmo da Intel.

A grande maioria dos SSDs domésticos utilizam módulos de memória Flash MLC, assim como nos
cartões e pendrives. Entretanto, eles oferecem um diferencial importante, que é o uso de múltiplos
canais de acesso. Isso permite que o controlador acesse vários chips simultaneamente, dividindo os
arquivos em pequenos blocos que podem ser divididos entre os chips e depois lidos simultaneamente,
de maneira muito similar ao que temos em um sistema RAID.

A maioria dos drives atuais utilizam 10 ou 20 chips de memória Flash (o que permite que os fabricantes
produzam drives de baixa e alta capacidade usando as mesmas placas) e 10 canais de acesso
simultâneo. Um bom exemplo é o Intel X25-M G2, que usa 10 chips na versão de 160 GB e 20 chips na
versão de 320 GB (com os mesmos 10 canais de acesso em ambos os casos).

Ao escrever um arquivo de 4 MB, por exemplo, o controlador o dividirá em 10 blocos de 400 KB cada
um, que serão escritos simultaneamente em 10 chips diferentes, ocupando um total de 100 páginas de 4
KB em cada um. Ao ler o arquivo posteriormente, a leitura é novamente dividida entre os 10 chips, o que
multiplica tanto a taxa de escrita quanto a de leitura, sem que exista penalidade com relação aos tempos
de acesso.

Profª Ariane Scarelli FPD 95


Outro ponto importante a favor dos SSDs é o uso de controladores mais inteligentes, que utilizam
buffers de dados relativamente grandes. Isso permite que as operações sejam organizadas e agrupadas
de maneiras mais eficientes e muitas operações sejam cacheadas.

Em situações em que a controladora dispõe de um volume suficiente de blocos limpos (veja mais
detalhes a seguir) um SSD de segunda geração como o Intel X25-M G2 pode atingir facilmente 250
MB/s de taxa de leitura sequencial e 80 MB/s de escrita sequencial (muitos drives atingem os 160 MB/s),
se aproximando dos 300 MB/s teóricos do SATA-300.

Entretanto, é nas operações de leitura e escrita em setores aleatórios que a diferença se torna mais
marcante. Enquanto um HD magnético de 7200 RPM não é capaz de manter mais do que 800 ou 1000
KB/s de escrita ao gravar arquivos de 4 KB em setores aleatórios, um bom SSD é capaz de ultrapassar
facilmente os 20 MB/s (o X25-M G2 é capaz de manter de 36 a 40 MB/s de acordo com o volume de
requisições simultâneas), o que acaba representando uma diferença muito grande em situações reais de
uso.

Entendendo a memória Flash

Diferentemente da memória RAM e também das SRAM, a memória Flash permite armazenar dados por
longos períodos, sem precisar de alimentação elétrica. Este simples fato acabou fazendo com que a
memória Flash se tornasse uma das tecnologias mais importantes das últimas décadas, possibilitando o
surgimento dos cartões de memória, pendrives, SSDs, celulares, câmeras e players de mídia com
armazenamento interno e assim por diante.

Se a memória Flash não existisse, todas essas áreas estariam muito atrasadas em relação ao que
temos hoje. Os celulares e os palmtops provavelmente ainda utilizariam memória SRAM para armazenar
os dados e seriam por isso mais caros e perderiam os dados quando a bateria fosse removida. Os
pendrives simplesmente não existiriam e os cartões de memória estariam estagnados nos cartões
CompactFlash, utilizando microdrives ou chips de memória SRAM alimentados por uma pequena
bateria. Formatos mais compactos, como os cartões SD e miniSD simplesmente não existiriam.

As células de memória Flash são bastante similares a um transistor MOSFET, construídas sobre um
wafer de silício (o substrato). A grande diferença é que a célula utiliza dois gates em vez de um. O
primeiro é o "control gate", que é usado para ativar a célula e fazer a leitura dos dados armazenados.

Os dados propriamente ditos são armazenados no segundo, o "floating gate", que é precisamente
construído entre duas camadas de óxido de silício (oxide layer). O termo "floating" indica justamente o

Profª Ariane Scarelli FPD 96


fato de ele ser posicionado entre as duas camadas, sem contato direto com os outros componentes da
célula:

As camadas de dióxido de silício armazenam cargas negativas, o que cria uma espécie de armadilha de
elétrons, que impede a saída de qualquer carga armazenada no floating gate, um arranjo que permite
manter os dados por longos períodos de tempo, sem que seja necessário manter a alimentação elétrica
(como nas memórias SRAM), ou muito menos fazer um refresh periódico (como na memória DRAM).
Isso simplifica muito o design dos cartões, pendrives e outros dispositivos, pois eles precisam incluir
apenas os chips de memória Flash, um chip controlador e as trilhas necessárias, sem necessidade de
baterias ou de circuitos de refresh.

Os dados são gravados na célula através de um processo de programação, que consiste em ativar o
transistor (a corrente flui do emissor para o coletor) e, simultaneamente, aplicar uma tensão mais alta
(12 volts ou mais) no control gate. A alta tensão faz com que alguns dos elétrons sejam "sugados" para
dentro do floating gate, onde ficam presos devido às duas camadas de óxido de silício. Uma vez que a
célula é programada, os dados podem ser lidos inúmeras vezes, sem que seja necessário regravar os
dados.

Para modificar os dados gravados é necessário primeiro limpar o conteúdo das células, o que é feito
aplicando uma tensão diferencial entre o emissor e o control gate. Isso remove qualquer carga
armazenada no floating gate, fazendo com que a célula retorne ao estado original e possa ser
programada novamente. Todo chip de memória Flash suporta um número finito de operações de escrita
(de 10.000 a 100.000) mas suporta um número quase ilimitado de operações de leitura.

Continuando, nem todos os chips de memória Flash nascem iguais. Embora a função seja sempre a
mesma (armazenar dados), existem diferenças nas tecnologias usadas, que determinam onde o chip
será usado.

Existem dois tipos de memória Flash. A primeira tecnologia de memória Flash a se popularizar foi o
tipo NOR, que chegou ao mercado em 1988. Os chips de memória Flash NOR possuem uma interface
Profª Ariane Scarelli FPD 97
de endereços similar à da memória RAM, incluindo o suporte ao XiP (eXecute in Place), que permite que
softwares armazenados no chip de memória Flash sejam executados diretamente, sem precisarem ser
primeiro copiados para a memória RAM.
Isso permite que eles sejam usados para armazenar o BIOS da placa-mãe e firmwares em dispositivos
diversos, que antes eram armazenados em chips de memória ROM ou EEPROM. Nos primeiros PCs,
por exemplo, o BIOS da placa-mãe era gravado em um chip de memória ROM e por isso não era
atualizável, a menos que o chip fosse fisicamente substituído.

O problema com as memórias NOR é que elas são muito caras e, embora as leituras sejam rápidas, o
tempo de gravação das células é muito alto. Em um chip de memória NOR típico, as operações de
gravação demoram cerca de 750 nanosegundos, o que é várias ordens de magnitude mais lento do que
em um chip de memória RAM.

No caso do BIOS da placa-mãe, isso não é um grande problema, pois você só precisa atualizá-lo
esporadicamente, mas os chips de memória Flash NOR não seriam muito adequados para uso em um
SSD, por exemplo.

Chips de memória Flash NOR de acesso serial, como os usados para gravar o BIOS em placas-mãe
atuais

As memórias NOR chegaram a ser utilizadas em muitos palmtops e smartphones (até por volta de 2006)
para armazenar o firmware do sistema, mas nesse caso ela era usada apenas para leitura, com todas
as operações de escrita sendo feitas em um chip de memória SRAM ou Flash NAND separado. A
vantagem nesse caso é que o boot era um pouco mais rápido, já que o sistema podia rodar diretamente

Profª Ariane Scarelli FPD 98


a partir da memória Flash, sem precisar ser primeiro copiado para a memória RAM. Eles são também
muito utilizados em dispositivos mais simples, como impressoras, modems ADSL, pontos de acesso e
outros, armazenando o firmware do sistema.

De volta aos PCs, as memórias Flash NOR chegaram a ser utilizadas nos primeiros cartões de memória
PCMCIA e CompactFlash, mas elas desapareceram desse ramo quando foram introduzidas as
memórias NAND, que rapidamente se tornaram as mais populares.
Além de mais baratas que as NOR, as memórias NAND também são muito mais rápidas na hora de
gravar dados. A principal limitação é que elas são endereçadas usando páginas de 4 KB (ou 2 KB,
dependendo do design do chip) e acessadas através de um barramento serial. Ou seja, do ponto de
vista do sistema, um cartão de memória Flash NAND está mais para um HD do que para uma unidade
de memória. Você pode usá-lo para guardar dados, mas na hora que o sistema precisa rodar um
programa, precisa primeiro copiá-lo para a memória RAM, da mesma forma que faria ao usar um HD.

A partir de 2006, até mesmo os smartphones e palmtops passaram a utilizar chips de memória NAND
para armazenar o firmware e os aplicativos instalados, em vez de um chip separado de memória XOR.

Isso se tornou possível graças ao uso de sistema de execução dinâmica, onde os aplicativos são
primeiro copiados da memória Flash para a memória RAM e executados a partir dela. Esse esquema é
muito similar ao que temos num PC, onde os arquivos são salvos no HD, porém processados usando a
memória RAM.

O grande boom da memória Flash aconteceu entre 2004 e 2005, quando uma combinação de dois
fatores fez com que os preços por MB caíssem rapidamente.

O primeiro foi o brutal aumento na produção e a concorrência entre os fabricantes, que empurraram os
preços para baixo. Além de gigantes como a Samsung e a Toshiba, até mesmo a Intel e a AMD
investiram pesadamente na fabricação de memória Flash.

O segundo foi a introdução da tecnologia MLC (Mult-Level Cell), onde cada célula passa a armazenar
dois ou mais bits em vez de apenas um. Isso é possível graças ao uso de tensões intermediárias. Com 4
tensões diferentes, a célula pode armazenar 2 bits, com 8 pode armazenar 3 bits e assim por diante. Na
geração atual (2009) os chips armazenam apenas 2 bits, mas não deve demorar até que os fabricantes
desenvolvam células capazes de armazenar 3 e 4 bits, já que isso reduzirá proporcionalmente o custo
por megabyte.
O MLC foi implantado de forma mais ou menos simultânea pelos diversos fabricantes e permitiu reduzir
drasticamente o custo por megabyte, quase que de uma hora para a outra. Hoje em dia, os chips MLC
são os usados na esmagadora maioria dos pendrives, cartões de memória e SSDs.

Profª Ariane Scarelli FPD 99


Os chips "tradicionais", que armazenam um único bit por célula passaram a ser chamados de "SLC"
(Single-Level Cell) e ainda são produzidos com o objetivo de atender o mercado de SSDs de alto
desempenho (sobretudo os modelos destinados ao mercado de servidores). Embora muito mais caros,
eles oferecem um melhor desempenho e são mais duráveis.
Outra tecnologia usada pelos fabricantes para cortar custos e ao mesmo tempo permitir a criação de
chips de maior densidade é o "Die-Stacking", onde dois ou mais chips são "empilhados", conectados
entre si e selados dentro de um único encapsulamento, que possui o mesmo formato e contatos que um
chip tradicional:

Chips de memória empilhados, usando o die-stacking

Assim como em outras tecnologias, o uso do die-stacking inicialmente encarecia os chips, mas, com a
evolução das técnicas de produção, ele acabou resultando em redução de custos, já que boa parte do
preço de um chip de memória flash corresponde, justamente, ao processo de encapsulamento. Com
isso, acaba sendo bem mais barato produzir um único chip com 8 camadas, do que 8 chips separados,
por exemplo.

Profª Ariane Scarelli FPD 100


ANEXO O – ‘Nômades digitais’ trocam rotina por vida de viagens e trabalho online

02 de agosto de 2015 21h00

‘Nômades digitais’ trocam rotina por vida de


viagens e trabalho online40
Em busca de mais liberdade na vida pessoal e na profissional, uma nova geração de autônomos e
de empreendedores escolhe viajar pelo mundo e morar temporariamente em outros países
enquanto trabalha remotamente por meio da internet

Por Ligia Aguilhar

ARQUIVO PESSOAL

Débora e Felipe viajam pela Europa com os dois cachorros enquanto trabalham

O casal de publicitários Débora Corrano e Felipe Pacheco, ambos com 25 anos, deixou o emprego
em uma agência para trabalhar como autônomos e buscar mais qualidade de vida, mas acabaram
presos a uma rotina de longas horas no trânsito ao se deslocar entre um cliente e outro. A solução
foi trabalhar de casa e realizar reuniões por ferramentas de teleconferência como o Skype. “Tudo
começou a ser feito na esfera digital e percebemos que não faria diferença trabalhar da nossa casa
em Santana (na zona norte da capital) ou de Berlim”, diz Pacheco, que decidiu levar a ideia ao pé
da letra.

Junto com a namorada, Pacheco guardou dinheiro por um ano e no começo de 2014 mudou-se
com mala, cuia e dois cachorros para Berlim, aderindo ao movimento conhecido como Nômades
Digitais, formado por empreendedores e profissionais autônomos que uniram a vontade de viajar o
mundo com um trabalho que pode ser executado remotamente por meio da internet. “É uma

40
Disponível em: <http://blogs.estadao.com.br/link/nomades-digitais-trocam-rotina-por-vida-de-viagens-e-trabalho-online/>.
Acesso em: 11/dez/2015.
Profª Ariane Scarelli FPD 101
questão de liberdade. Você percebe que faz sentido ser nômade no momento em que enxerga que
gasta 4 horas do seu dia em deslocamentos para trabalhar em algo que talvez você não goste
tanto”, diz Débora, da casa onde atualmente vive com Pacheco e os dois cachorros em Córdoba,
na Espanha.

Depois de nove meses em Berlim, o casal passou uma temporada em Barcelona e migrou para
Córdoba antes de seguir até o próximo destino: Lisboa. Os nômades vivem assim: passam uma
temporada de algumas semanas ou meses em um país até migrarem para o próximo destino que
oferecer uma boa conexão Wi-Fi.
ARQUIVO PESSOAL

Débora e o namorado alugam carro nos países por onde passam para viajar com os dois cachorros

Ainda não há estatísticas sobre o nomadismo digital do mundo. Um dos principais marcos do
movimento é o livro Trabalhe 4 horas por semana, de Tim Ferris, publicado em 2007 e que se
debruça sobre as técnicas de como trabalhar online e por menos horas.
Há também centenas de ferramentas e blogs que abordam o dia a dia da vida de nômade e dão
dicas para quem deseja se unir ao movimento. Débora mantém com Pacheco o blog Pequenos
Monstros, que mostra a rotina de quem carrega a vida em uma mala e o emprego no laptop.
O nômade holandês Pieter Levels criou a Nomad List, que indica os melhores lugares para os
nômades viverem; o site “Remote | OK”, que lista trabalhos que podem ser realizados à distância; e
o canal #nomads, na ferramenta de bate-papo Slack. “A primeira coisa a fazer é descobrir como
ganhar dinheiro trabalhando online”, diz Débora, que faz questão de frisar que a vida de um
nômade digital não é tão fácil quanto parece. “Existe um movimento hoje que diz: ‘Largue tudo
agora e vá viajar’, e nós sempre dizemos: ‘Não, não largue seu emprego agora’, faça um
planejamento antes senão você ficará perdido”, diz ela.
É o que defende também a publicitária Fernanda Neute, de 34 anos, criadora do blog Fêliz com a
Vida, que tornou-se nômade digital há 2 anos por influência do namorado, o norte-americano Mark
Manson.
Sharon Eve Smith

Profª Ariane Scarelli FPD 102


Fernanda Neute viaja com o namorado e busca lugares com boa conexão Wi-Fi, como cafés, para
trabalhar como publicitária

“De 40 reuniões que eu fiz quando virei nômade, uma resultou em um cliente. Demorei quatro
meses para conseguir um trabalho e ralei muito, mesmo sendo uma profissional com boa
reputação e contatos no Brasil”, diz ela, que teve como primeiro destino a Tailândia e hoje está em
Nova York.

O principal desafio está em convencer as empresas nacionais de que dá para confiar em alguém
que está trabalhando do outro lado do mundo. Ao mesmo tempo, a rotina de nômade exige
organização. “As pessoas pensam que eu fico fazendo reunião por Skype da praia. Se você quer
ter uma carreira melhor, não tem essa de trabalhar 4 horas por dia e ficar na praia”, diz.

Para os nômades digitais o principal valor não está em ter uma vida fácil ou com menos trabalho,
mas um novo estilo de vida. “A tecnologia proporciona às pessoas a possibilidade de serem livres”,
diz Fernanda.

Estratégia
ARQUIVO PESSOAL

Profª Ariane Scarelli FPD 103


Marcus Lucas toca cinco negócios pela web enquanto conhece a Tailândia

Marcus Lucas, de 31 anos, toca cinco negócios no mundo digital em meio a outros projetos
individuais. A maioria é baseada na venda de livros e treinamentos sobre empreendedorismo, que
garantiram recursos para ele viajar por oito países desde que se tornou nômade, em 2011. “Muitas
pessoas simplesmente guardam um montante para a viagem. Sugiro criar múltiplas fontes de renda
no Brasil para obter rendimentos mensais consistentes antes de viajar”, diz.

Ele recomenda ter um fundo de emergência de R$ 20 mil e uma renda mensal entre R$ 2 mil a R$
3 mil para se manter como nômade digital, valor que também faz parte da média recomendada por
outros adeptos do estilo de vida. “Em Chiang Mai (Tailândia) pagava R$ 500 de aluguel em um
condomínio com piscina”, diz.

O baixo custo de vida e a facilidade de visto são os fatores que tornam a Ásia um dos destinos
favoritos dos nômades digitais. “Muitas pessoas acreditam que ser nômade é não parar em
nenhum lugar, o que pode ser um tanto quanto equivocado”, diz Lucas. “A grande maioria dos
nômades fica no mínimo de um a dois meses em um país para ter maior imersão na cultura e firmar
laços de amizade com os locais”, diz ele, que planeja ficar por mais um ano na Tailândia, onde
mora atualmente, para aprender o idioma local e muay thai.
ARQUIVO PESSOAL

Profª Ariane Scarelli FPD 104


Mesa de trabalho de Fernanda Nêute durante passagem por Bali, na Indonésia

Há também quem depois de um tempo planeje estabelecer-se em um local. Fernanda quer voltar
ao Brasil. “Toda vez que volto a São Paulo o meu telefone começa a tocar (com propostas de
trabalho). A melhor parte de ser nômade é ter flexibilidade para estar onde é importante”, diz.
“Pretendo empreender e o lugar onde preciso estar agora é São Paulo.”

Já o casal Débora e Pacheco decidiu manter um apartamento alugado em Berlim para criar uma
base na Europa entre uma viagem e outra. Eles apostam que as experiências de vida farão a
diferença no currículo se voltarem ao Brasil. “Temos medo de fazer tudo errado, mas quem não
tem?”, questiona Pacheco.

Como vivem os nômades digitais?

MORADIA
Os nômades vivem em apartamentos alugados por temporada (como no Airbnb) ou em albergues.
Viajam com visto de turismo e a maioria vai para países da Ásia, onde o custo de vida é baixo e o
trânsito entre os países é mais fácil – na Europa, por exemplo, a permanência máxima para um
turista sem cidadania europeia é de três meses.
DINHEIRO
Como não param em um só país, os nômades costumam manter uma conta no Brasil e pagar as
despesas com cartão de crédito internacional. Cartões pré-pagos são a alternativa para saques em
dinheiro e muitos recebem pagamentos de clientes via PayPal.
TELEFONE

Profª Ariane Scarelli FPD 105


Skype e WhatsApp são os meios de comunicação favoritos para evitar o alto custo com roaming.
SEGURO-SAÚDE
Existem planos específicos para nômades, como o World Nomads, que oferece cobertura global e
seguro específico para quem pratica esportes radicais.

Profª Ariane Scarelli FPD 106


ANEXO P – Até quando o padrão será trabalhar das 8 às 18h?

7 de dez de 2015

Até quando o padrão será trabalhar das 8 às


18h?41
Imagine trabalhar de qualquer lugar do mundo e sem horários fixos, como na imagem
deste artigo? Acredite, muita gente já vive dessa forma.

Com a evolução da tecnologia estamos assistindo mudanças em relação às formas de


trabalho na vida das pessoas. Os dispositivos móveis, a banda larga, as conexões sem
fio e as aplicações em cloud computing possibilitam que profissionais de diversas
áreas trabalhem e se comuniquem a qualquer hora e local, extinguindo fronteiras de
localização e horários.

Já existem os chamados nômades digitais, que criaram


formas de trabalhar de qualquer lugar do mundo,
produzindo conteúdos e sendo remunerados por isso, por
exemplo.

Eles trocam a rotina por viagens e trabalho on-line, como o casal de publicitários
Débora Corrano e Felipe Pacheco, que deixaram seus empregos para trabalhar como
autônomos a partir de casa, realizando reuniões pelo Skype. Ainda não há estatísticas
sobre o nomadismo digital do mundo, mas um dos principais marcos do movimento é
o livro Trabalhe 4 horas por semana, de Tim Ferris, publicado em 2007 e que se
debruça sobre as técnicas de como trabalhar online e por menos horas. (Leia mais
sobre isso no blog do Estadão).

41 Disponível em: <https://www.linkedin.com/pulse/at%C3%A9-quando-o-padr%C3%A3o-ser%C3%A1-trabalhar-das-8-


%C3%A0s-18h-flavia-gamonar?trk=eml-b2_content_ecosystem_digest-recommended_articles-57-
null&midToken=AQFgNuktFaOh4w&fromEmail=fromEmail&ut=2-zP5EVk3HJn01>. Acesso em: 11/dez/2015.
Profª Ariane Scarelli FPD 107
Existe uma infinidade de novos trabalhos e carreiras surgindo, como os que apontei
no artigo "Growth hacker, pilotos de drones e as profissões que ainda não foram
inventadas".

As novas gerações também influenciam estas modificações, como as que citei no


artigo que viralizou na semana passada e alcançou mais de 300 mil visualizações, "A
morte dos shoppings, o fim do Facebook e o futuro criado pelos Millennials". A
verdade é que essas gerações e o avanço da tecnologia nos levarão a novas profissões
e novos jeito de encarar o trabalho e de trabalhar.

De fato, já existem muitas pessoas trabalhando a partir de suas casas e essa


flexibilidade impacta positivamente, garantindo mais tempo com a
família, menos estresse e mais tempo para dormir.

Essas adequações a novos modelos de trabalho


representam uma tendência sem volta, principalmente
por causa das novas gerações de profissionais que agora
estão chegando nas empresas e que valorizam mais do
que nunca esse equilíbrio.

Apesar de saber disso, às vezes me pego refletindo sobre modelos antigos que ainda
temos fortemente arraigados em nós e que impactam tanto e de tantas formas. A
maioria das organizações ainda está presa a esses modelos tradicionais de trabalho e
replica comportamentos, decisões, regras e atitudes que nem sempre são pensadas,
são apenas tomadas como a única forma de fazer algo e passadas adiante.

Vamos levar este assunto a uma outra estância e relacioná-lo, de fato, às novas
gerações. Sou professora universitária e toda vez que dou aula me sinto incomodada
por em pleno 2015 ainda estar diante do mesmo cenário que existe há décadas:
carteiras, alunos sentados um atrás do outro e um professor em pé na frente deles.

Profª Ariane Scarelli FPD 108


Como é que esse modelo se sustenta? A verdade é que não se sustenta mais. Eu
adoraria ter uma enorme mesa e ter meus alunos sentados ao redor dela e juntos
discutirmos assuntos, penso que isso os estimularia a participar mais. Mas como é que
vamos querer mesas enormes se existem tantos problemas na educação, não é
mesmo? Tem gente que nem acesso a educação tem.

Preciso entender que meus alunos não são mais os mesmos de outra época. Fui pegar
a chave do laboratório dia desses e uma professora estava pedindo para bloquearem
tudo que pudessem na internet para que seus alunos prestassem atenção nela. Cada
um tem suas escolhas e respeito, mas eu não peço para bloquearem Facebook em sala
de aula e não dou bronca se estão olhando para o celular. Eu entendo plenamente que
não há como pedir para que eles se desconectem e olhem apenas pra mim. Eu estou
ciente de que eles podem aprender enquanto fazem outras coisas e não vou lutar
contra isso: é característica da geração deles ser multitarefas. E mais, eu estou lidando
com adultos, eles tem liberdade de me ouvir ou não, pagam a faculdade e podem
fazer escolhas.

Eu fui aluna até outro dia e me incomodava demais passar horas sentada olhando um
professor falar sem usar nada que pudesse deixar a aula mais atrativa. Eu aprenderia
melhor com imagens, com atividades que não tivessem respostas prontas e me
fizessem refletir, mas fui obrigada a fazer trabalhos e provas óbvios, cujas respostas
eu poderia encontrar na internet.

Com o passar do tempo e o avanço das tecnologias novos modos de se estudar


surgem, como as modalidades EAD, que ainda tem muito para crescer. Cursos
baseados em apenas ler PDF´s on-line pra mim ainda não são o modelo ideal. Ainda
são apenas a transposição de algo que poderia estar no papel e funcionar igual. É
preciso mais: vídeos, interações, discussões e plataformas especialmente desenhadas
para tal.

Com a conexão sem fio e os dispositivos móveis nos tornamos hiperconectados e


temos um excesso de conteúdo à disposição. Instituições oferecem cursos aos montes,
Profª Ariane Scarelli FPD 109
gratuitos, pagos a preços interessantes e aos milhares, de grandes nomes, como é a
proposta dos MOOC´s. Percebo que estamos diante de uma grande revolução:
podemos estudar por contra própria e ao buscar o conteúdo que queremos
estudar podemos fazer o estudo ser muito mais proveitoso.

Apesar de tudo isso muita gente ainda trabalha das 8h às


18h. Ainda nos locomovemos para um lugar no qual
passaremos o dia sentados em frente a um computador
fazendo algo que poderia ser feito em home office ou em
horários alternativos.

Ainda somos forçados a produzir e ter ideias incríveis enquanto olhamos para as
mesmas paredes de todos os dias. Escrevi um artigo sobre isso, falando sobre o fato
de as boas ideias não surgirem num momento eureka apenas ou sob pressão, mas nos
momentos mais livres e contemplativos. Um modelo de trabalho mais flexível
poderia contribuir com o fluir das boas ideias.

Mas isso não acontece porque o modelo tradicional reina e sequer se discute esta
alternativa, porque muitos gestores querem funcionários debaixo de seus narizes.

Como profissional de marketing entendo claramente que existem marcas que


precisam de alguém publicando conteúdo e interagindo com seus fãs em mídias
sociais não das 8h às 18h, mas na sexta-feira ou no sábado a noite dependendo do
produto que vendem. Não faz sentido responder o comentário de um cliente que disse
estar tomando o vinho de sua marca no final de semana apenas na segunda de manhã.
Neste sentido, surgem novos modelos, um profissional conectado em horários
alternativos para responder comentários e gerenciar crises. Além disso, buscar
brechas para gerar mais interações com seu público, como foi o caso do Bis, que
aproveitou as críticas sobre a imagem de um post para criar montagens que divertiram
seus fãs.
Profª Ariane Scarelli FPD 110
O surgimento de novas profissões, de novos tipos de negócios e demandas devem
impactar os modelos de trabalho atuais nos próximos anos. Existirá um confronto de
crenças e preferências em relação a outras gerações, como a dos baby boomers, tão
acostumados a trabalhar longas horas e valorizar fortemente a remuneração.
Millennials buscam desafios, são multitarefas, preferem trabalhar em equipe e
querem equilíbrio entre vida profissional e social, aceitam ganhar menos para isso.

Uma pesquisa anual da Delloite chamada de "The Deloitte Millennial Survey 2015
- Mind the Gaps" relevou que as empresas deverão se concentrar em pessoas, não
apenas em produtos e lucros no século 21. As constatações deste inquérito mostram
que serão necessárias mudanças significativas para atrair e reter a futura força de
trabalho. As novas gerações não trabalham apenas por dinheiro, elas buscam outras
coisas. Foram entrevistados 7.800 de líderes de amanhã, de 29 países. Dentre os
insights, alguns deles chamam muita atenção. Setenta e cinco por cento da geração
Millennials ouvida apontou que as empresas estão focados em suas próprias agendas
em vez de ajudar a melhorar a sociedade, apenas 28% deles acreditam que a empresa
em que trabalham atualmente utiliza plenamente suas habilidades e mais da metade
(53%) querem tornar-se líderes ou executivos.

Profª Ariane Scarelli FPD 111


Outra pesquisa aborda "O futuro do trabalho: impactos e desafios para as
organizações no Brasil" e foi realizado para entender como as organizações estão
encarando esses desafios e de que forma eles afetam suas estratégias de negócios. A
pesquisa foi realizada pela PwC e ouviu 113 organizações de diferentes setores da
economia.

A análise das informações coletadas relevou que as empresas brasileiras estão


conscientes de que mudanças estruturais estão transformando o trabalho e as
expectativas dos profissionais. Elas reconhecem a dificuldade em obter profissionais
qualificados, surgimento de ovas expectativas e valores em relação ao trabalho,
impacto da tecnologia e da comunicação e mudanças demográficas. A maioria das
empresas reconheceu a necessidade de mudanças em suas estratégias de gestão de
pessoas, mas na prática continuam dando ênfase a políticas de remuneração e
desenvolvimento. Pouco está sendo feito para aumentar a flexibilidade de horário e
local de trabalho e contemplar a necessidade dos trabalhadores em relação à
construção de suas carreiras.

As pesquisas complementares revelaram que para os jovens, da geração do milênio, a


remuneração não constitui o principal benefício esperado: eles esperam aprendizado e
horários flexíveis de trabalho.

Dentre as barreiras para adotar modelos mais flexíveis, os respondentes disseram que
existem impeditivos legais e de dificuldades de gestão de culturas. Muitos deles estão
ligados à legislação e à complexividade da regulamentação do trabalho no Brasil.

Novas possibilidades

A tendência é que num futuro breve trabalho seja algo


que se faz, não um lugar para onde se vai.

Já existem empresas, como a Bosch e a Volvo, que adotaram horários alternativos e


funcionários se organizando em redes colaborativas. Isso inclusive me lembra muito a
Profª Ariane Scarelli FPD 112
essência das metodologias ágeis de trabalho, como o Scrum, pautado em equipes
auto-organizáveis em torno de metas e inexistência de hierarquias.

Os espaços de trabalho terão a cara de seus donos. Não necessariamente será mais um
escritório, mas o jardim, o café, locais de passagem, coworkings, salas de jogos, etc.
No Buscapé funcionários podem trabalhar deitados em redes. No LinkedIn, eles
podem escolher entre diversos espaços diferenciados e salas de reunião inspiradas em
São Paulo, como o ambiente que remete ao Parque Ibirapuera, muitas delas com
balanços ou sofás, não cadeiras e mesas tradicionais.

As próprias configurações desses lugares vai mudar, porque se não existirem mais
lugares fixos, os espaços serão rotativos. Essas práticas ajudarão a economizar. Um
case é a Philips, na qual 80% dos funcionários se dividem entre trabalho remoto e
presencial e na Cisco, onde dois terços trabalham remotamente.

Outra tendência é a das empresas se espalharem por diversos pontos da cidade,


mantendo uma sede em algum desses lugares. São ações que contribuirão com a
mobilidade e evitarão que as pessoas percam um tempo enorme se deslocando até um
determinado lugar e piorando o trânsito.

Estes dados todos são reforçados pela pesquisa Reinventando Carreiras –


Funcionários do Futuro, realizada pelo CONECTA, plataforma web do IBOPE
Inteligência, realizada em outubro de 2015, que afirma que as empresas do futuro
devem ter horário flexível e remuneração variável e que a globalização permitirá
trabalhar com profissionais de uma mesma equipe alocados em diferentes países. A
pesquisa ouviu opiniões de cerca de mil internautas sobre o futuro do mercado de
trabalho e o perfil desse novo profissional. Segundo 54% dos entrevistados, no futuro
os funcionários poderão estabelecer seu horário de trabalho contanto que cumpram o
mínimo exigido pela empresa e 77% gostariam que isso efetivamente acontecesse.
Provavelmente em decorrência dessa flexibilidade, para 53% a remuneração será
totalmente variável, de acordo com a produção de cada funcionário. Essa liberdade,
entretanto, deve vir acompanhada de maior vigilância e monitoramento em tempo
Profª Ariane Scarelli FPD 113
real, segundo 54% dos entrevistados. Em relação ao local de trabalho, pouco mais da
metade (55%) acredita que será possível trabalhar de qualquer lugar, que as equipes
devem ser compostas por profissionais alocados em diferentes países (68%) e essa
maior liberdade fará com que seja possível os profissionais trabalharem em mais de
uma empresa ao mesmo tempo (57%). Entretanto, a estrutura hierárquica mais
tradicional não deve acabar segundo 53% dos entrevistados.

Talvez você também goste de ler "As profissões que mais rapidamente serão
substituídas por máquinas, tecnologia ou inteligência artificial, pesquisa realizada
pelo Ibope.

Este é o futuro. E ele não está tão longe assim. E só pra constar, é lógico que
flexibilidade, horários diferenciados e trabalho remoto não se aplicam a todas as
áreas.

Leitura recomendada: Livro Trabalho Portátil, de André Brik e Marina Sell Brik, que
apresenta um modelo de programa de teletrabalho para empresas que desejam enviar
parte dos seus colaboradores para executar suas atividades remotamente e, com isso,
aproveitar todos os benefícios que esta modalidade oferece.

Flavia Gamonar
Professora Mestra em Mídia e Tecnologia pela Unesp e gerente de marketing.
Especialista em marketing de conteúdo e pesquisadora apaixonada de tendências
digitais, marketing, mídias sociais, inovação e empreendedorismo.

Profª Ariane Scarelli FPD 114


ANEXO Q – O que é Big Data?

O que é Big Data?42


Introdução
Você já parou para pensar na quantidade e variedade de dados que geramos e armazenamos a
cada dia? Bancos, companhias aéreas, operadoras de telefonia, serviços de busca on-line e redes
varejistas são apenas alguns dos inúmeros exemplos de empresas que convivem diariamente com
grandes volumes de informações. Mas apenas ter dados não basta: é importante conseguir e saber
usá-los. É aí que o conceito de Big Data entra em cena.

Neste texto, você verá o que é Big Data, entenderá o porquê de este nome estar cada vez mais
presente no vocabulário dos ambientes de Tecnologia da Informação (TI) e compreenderá os
motivos que levam o conceito a contribuir para o cotidiano de empresas, governos e demais
instituições.

O conceito de Big Data


A princípio, podemos definir o conceito de Big Data como sendo conjuntos de dados extremamente
amplos e que, por este motivo, necessitam de ferramentas especialmente preparadas para lidar
com grandes volumes, de forma que toda e qualquer informação nestes meios possa ser
encontrada, analisada e aproveitada em tempo hábil.

De maneira mais simplista, a ideia também pode ser compreendida como a análise de grandes
quantidades de dados para a geração de resultados importantes que, em volumes menores,
dificilmente seriam alcançados.

Não é difícil entender o cenário


em que o conceito se aplica: trocamos milhões de e-mails por dia; milhares de transações

42
Disponível em: <http://www.infowester.com/big-data.php>. Acesso em 04/fev/2016.
Profª Ariane Scarelli FPD 115
bancárias acontecem no mundo a cada segundo; soluções sofisticadas gerenciam a cadeia de
suprimentos de várias fábricas neste exato momento; operadoras registram a todo instante
chamadas e tráfego de dados do crescente número de linhas móveis no mundo todo; sistemas
de ERP coordenam os setores de inúmeras companhias. Enfim, exemplos não faltam - se te
perguntarem, você certamente será capaz de apontar outros sem fazer esforço.

Informação é poder, logo, se uma empresa souber como utilizar os dados que tem em mãos,
poderá entender como melhorar um produto, como criar uma estratégia de marketing mais
eficiente, como cortar gastos, como produzir mais em menos tempo, como evitar o desperdício de
recursos, como superar um concorrente, como disponibilizar serviços para a um cliente especial de
maneira satisfatória e assim por diante.
Perceba, estamos falando de fatores que podem inclusive ser decisivos para o futuro de uma
companhia. Mas, Big Data é um nome relativamente recente (ou, ao menos, começou a aparecer
na mídia recentemente). Isso significa que somente nos últimos anos é que as empresas
descobriram a necessidade de fazer melhor uso de seus grandes bancos de dados?

Pode ter certeza que não. Há tempos que departamentos de TI contemplam aplicações de Data
Mining, Business Intelligence e CRM (Customer Relationship Management), por exemplo, para
tratar justamente de análise de dados, tomadas de decisões e outros aspectos relacionados ao
negócio.
A proposta de uma solução de Big Data é a de oferecer uma abordagem ampla no tratamento do
aspecto cada vez mais "caótico" dos dados para tornar as referidas aplicações e todas as outras
mais eficientes e precisas. Para tanto, o conceito considera não somente grandes quantidades de
dados, a velocidade de análise e a disponibilização destes, como também a relação com e entre os
volumes.

Profª Ariane Scarelli FPD 116


O Facebook é um exemplo de empresa que se beneficia de Big Data: as bases de dados do serviço
aumentam todo dia
e são utilizadas para determinar relações, preferências e comportamentos dos usuários

Por que Big Data é tão importante?


Lidamos com dados desde os primórdios da humanidade. Acontece que, nos tempos atuais, os
avanços computacionais nos permitem guardar, organizar e analisar dados muito mais facilmente e
com frequência muito maior.

Este panorama está longe de deixar de ser crescente. Basta imaginar, por exemplo, que vários
dispositivos em nossas casas - geladeiras, TVs, lavadoras de roupa, cafeteiras, entre outros -
deverão estar conectados à internet em um futuro não muito distante. Esta previsão está dentro do
que se conhece como Internet das Coisas.
Se olharmos para o que temos agora, já veremos uma grande mudança em relação às décadas
anteriores: tomando como base apenas a internet, pense na quantidade de dados que são gerados
diariamente somente nas redes sociais; repare na imensa quantidade de sites na Web; perceba
que você é capaz de fazer compras on-line por meio até do seu celular, quando o máximo de
informatização que as lojas tinham em um passado não muito distante eram sistemas isolados para
gerenciar os seus estabelecimentos físicos.

As tecnologias atuais nos permitiram - e permitem - aumentar exponencialmente a quantidade de


informações no mundo e, agora, empresas, governos e outras instituições precisam saber lidar com
esta "explosão" de dados. O Big Data se propõe a ajudar nesta tarefa, uma vez que as ferramentas
computacionais usadas até então para gestão de dados, por si só, já não podem fazê-lo
satisfatoriamente.

A quantidade de dados gerada e armazenada diariamente chegou a tal ponto que, hoje, uma
estrutura centralizada de processamento de dados já não faz mais sentido para a maioria absoluta
das grandes entidades. O Google, por exemplo, possui vários data centers para dar conta de suas
operações, mas trata todos de maneira integrada. Este "particionamento estrutural", é bom
destacar, não é uma barreira para o Big Data - em tempos de computação nas nuvens, nada mas
trivial.

Os 'Vs' do Big Data: volume, velocidade, variedade,


veracidade e valor
No intuito de deixar a ideia de Big Data mais clara, alguns especialistas passaram a resumir o
assunto em aspectos que conseguem descrever satisfatoriamente a base do conceito: os cincos
'Vs' - volume, velocidade e variedade, com os fatores veracidade e valor aparecendo
posteriormente.

Profª Ariane Scarelli FPD 117


O aspecto do volume (volume) você já conhece. Estamos falando de quantidades de dados
realmente grandes, que crescem exponencialmente e que, não raramente, são subutilizados
justamente por estarem nestas condições.

Velocidade (velocity) é outro ponto que você já assimilou. Para dar conta de determinados
problemas, o tratamento dos dados (obtenção, gravação, atualização, enfim) deve ser feito em
tempo hábil - muitas vezes em tempo real. Se o tamanho do banco de dados for um fator limitante,
o negócio pode ser prejudicado: imagine, por exemplo, o transtorno que uma operadora de cartão
de crédito teria - e causaria - se demorasse horas para aprovar um transação de um cliente pelo
fato de o seu sistema de segurança não conseguir analisar rapidamente todos os dados que
podem indicar uma fraude.

Variedade (variety) é outro aspecto importante. Os volume de dados que temos hoje são
consequência também da diversidade de informações. Temos dados em formato estruturados, isto
é, armazenados em bancos como PostgreSQL e Oracle, e dados não estruturados oriundos de
inúmeras fontes, como documentos, imagens, áudios, vídeos e assim por diante. É necessário
saber tratar a variedade como parte de um todo - um tipo de dado pode ser inútil se não for
associado a outros.

O ponto de vista da veracidade (veracity) também pode ser considerado, pois não adianta muita
coisa lidar com a combinação "volume + velocidade + variedade" se houver dados não confiáveis.
É necessário que haja processos que garantam o máximo possível a consistência dos dados.
Voltando ao exemplo da operadora de cartão de crédito, imagine o problema que a empresa teria
se o seu sistema bloqueasse uma transação genuína por analisar dados não condizentes com a
realidade.

Informação não é só poder, informação também é patrimônio. A combinação "volume + velocidade


+ variedade + veracidade", além de todo e qualquer outro aspecto que caracteriza uma solução de
Big Data, se mostrará inviável se o resultado não trouxer benefícios significativos e que
compensem o investimento. Este é o ponto de vista do valor (value).

É claro que estes cinco aspectos não precisam ser tomados como a definição perfeita. Há quem
acredite, por exemplo, que a combinação "volume + velocidade + variedade" seja suficiente para
transmitir uma noção aceitável do Big Data. Sob esta óptica, os aspectos da veracidade e do valor
seriam desnecessários, porque já estão implícitos no negócio - qualquer entidade séria sabe que
precisa de dados consistentes; nenhuma entidade toma decisões e investe se não houver
expectativa de retorno.

O destaque para estes dois pontos talvez seja mesmo desnecessário por fazer referência ao que
parece óbvio. Por outro lado, a sua consideração pode ser relevante porque reforça os cuidados
necessários a estes aspectos: uma empresa pode estar analisando redes sociais para obter uma

Profª Ariane Scarelli FPD 118


avaliação da imagem que os clientes têm de seus produtos, mas será que estas informações são
confiáveis ao ponto de não ser necessário a adoção de procedimentos mais criteriosos? Será que
não se faz necessário um estudo mais profundo para diminuir os riscos de um investimento antes
de efetuá-lo?

De qualquer forma, os três primeiros 'Vs' - volume, velocidade e variedade - podem até não
oferecer a melhor definição do conceito, mas não estão longe de fazê-lo. Entende-se que Big Data
trata apenas de enormes quantidades de dados, todavia, você pode ter um volume não muito
grande, mas que ainda se encaixa no contexto por causa dos fatores velocidade e variedade.

Soluções de Big Data


Além de lidar com volumes extremamente grandes de dados dos mais variados tipos, soluções de
Big Data também precisam trabalhar com distribuição de processamento e elasticidade, isto é,
suportar aplicações com volumes de dados que crescem substancialmente em pouco tempo.
O problema é que os bancos de dados "tradicionais", especialmente aqueles que exploram o
modelo relacional, como o MySQL, o PostgreSQL e o Oracle, não se mostram adequados a estes
requisitos, já que são menos flexíveis.

Isso acontece porque bancos de dados relacionais normalmente se baseiam em quatro


propriedades que tornam a sua adoção segura e eficiente, razão pela qual soluções do tipo são tão
populares: Atomicidade, Consistência, Isolamento e Durabilidade. Esta combinação é conhecida
como ACID, sigla para o uso destes termos em inglês: Atomicity, Consistency, Isolation e Durability.
Vejamos uma breve descrição de cada uma:
 Atomicidade: toda transação deve ser atômica, isto é, só pode ser considerada efetivada se
executada completamente;
 Consistência: todas as regras aplicadas ao banco de dados devem ser seguidas;
 Isolamento: nenhuma transação pode interferir em outra que esteja em andamento ao mesmo
tempo;
 Durabilidade: uma vez que a transação esteja concluída, os dados consequentes não podem
ser perdidos.

O problema é que este conjunto de propriedades é por demais restritivo para uma solução de Big
Data. A elasticidade, por exemplo, pode ser inviabilizada pela atomicidade e pela consistência. É
neste ponto que entra em cena o conceito de NoSQL, denominação que muitos atribuem à
expressão em inglês "Not only SQL", que em tradução livre significa "Não apenas SQL"
(SQL - Structured Query Language - é, em poucas palavras, uma linguagem própria para se
trabalhar com bancos de dados relacionais).

O NoSQL faz referência às soluções de bancos de dados que possibilitam armazenamento de


diversas formas, não se limitando ao modelo relacional tradicional. Bancos do tipo são mais
Profª Ariane Scarelli FPD 119
flexíveis, sendo inclusive compatíveis com um grupo de premissas que "compete" com as
propriedades ACID: a BASE (Basically Available, Soft state, Eventually consistency - Basicamente
disponível, Estado Leve, Eventualmente consistente).

Não é que bancos de dados relacionais tenham ficado ultrapassados - eles são e continuarão por
muito tempo sendo úteis a uma série de aplicações. O que acontece é que, geralmente, quanto
maior um banco de dados se torna, mais custoso e trabalhoso ele fica: é preciso otimizar,
acrescentar novos servidores, empregar mais especialistas em sua manutenção, enfim.

Via de regra, escalar (torná-lo maior) um bancos de dados NoSQL é mais fácil e menos custoso.
Isso é possível porque, além de contar com propriedades mais flexíveis, bancos do tipo já são
otimizados para trabalhar com processamento paralelo, distribuição global (vários data centers),
aumento imediato de sua capacidade e outros.

Além disso, há mais de uma categoria de banco de dados NoSQL, fazendo com que soluções do
tipo possam atender à grande variedade de dados que existe, tanto estrurados, quanto não
estruturados: bancos de dados orientados a documentos, bancos de dados chave/valor, bancos de
dados de grafos, enfim.

Exemplos de bancos de dado NoSQL são o Cassandra, o MongoDB, o HBase, o CouchDB e


o Redis. Mas, quando o assunto é Big Data, apenas um banco de dados do tipo não basta. É
necessário também contar com ferramentas que permitam o tratamento dos volumes. Neste ponto,
o Hadoop é, de longe, a principal referência.

Exemplos de bancos de dados noSQL: Cassandra, MongoDB, HBase, CouchDB e Redis

O que é Hadoop?
O Hadoop é uma plataforma open source desenvolvida especialmente para processamento e
análise de grandes volumes de dados, sejam eles estruturados ou não estruturados. O projeto é

Profª Ariane Scarelli FPD 120


mantido pela Apache Foundation, mas conta com a colaboração de várias empresas, como Yahoo!,
Facebook, Google e IBM.

Pode-se dizer que o projeto teve início em meados de 2003, quando o Google criou um modelo de
programação que distribui o processamento a ser realizado entre vários computadores para ajudar
o seu mecanismo de busca a ficar mais rápido e livre da necessidades de servidores poderosos (e
caros). Esta tecnologia recebeu o nome de MapReduce.

Alguns meses depois, o Google apresentou o Google File System (GFS), um *sistema de arquivos
especialmente preparado para lidar com processamento distribuído e, como não poderia deixar de
ser no caso de uma empresa como esta, grandes volumes de dados (em grandezas de terabytes
ou mesmo petabytes).

*Em poucas palavras, o sistema de arquivos é um conjunto de instruções que determina como os
dados devem ser guardados, acessados, copiados, alterados, nomeados, eliminados e assim por
diante.

Em 2004, uma implementação open source do GFS foi incorporada ao Nutch, um projeto de motor
de busca para a Web. O Nutch enfrentava problemas de escala - não conseguia lidar com um
volume grande de páginas - e a variação do GFS, que recebeu o nome Nutch Distributed
Filesystem (NDFS), se mostrou como uma solução. No ano seguinte, o Nutch já contava também
com uma implementação do MapReduce.

Na verdade, o Nutch fazia parte de um projeto maior: uma biblioteca para indexação de páginas
chamada Lucene. Os responsáveis por estes trabalhos logo viram que o que tinham em mãos
também poderia ser usado em aplicações diferentes das buscas na Web. Esta percepção motivou
a criação de outro projeto que engloba características do Nutch e do Lucene: o Hadoop, cuja
implementação do sistema de arquivos recebeu o nome de Hadoop Distributed File System
(HDFS).
O Hadoop é tido como uma solução adequada para Big Data por vários motivos:

- É um projeto open source, como já informado, fato que permite a sua modificação para fins de
customização e o torna suscetível a melhorias constantes graças à sua rede de colaboração. Por
causa desta característica, vários projetos derivados ou complementares foram - e ainda são -
criados;

- Proporciona economia, já que não exige o pagamento de licenças e suporta hardware


convencional, permitindo a criação de projetos com máquinas consideravelmente mais baratas;

- O Hadoop conta, por padrão, com recursos de tolerância a falhas, como replicação de dados;

Profª Ariane Scarelli FPD 121


- O Hadoop é escalável: havendo necessidade de processamento para suportar maior quantidade
de dados, é possível acrescentar computadores sem necessidade de realizar reconfigurações
complexas no sistema.

É claro que o Hadoop pode ser usado em conjunto com bancos de dados NoSQL. A própria
Apache Foundation mantém uma solução do tipo que é uma espécie de subprojeto do Hadoop: o já
mencionado banco de dados HBase, que funciona atrelado ao HDFS.

A denominação Hadoop tem uma origem inusitada: este é o nome que o filho de Doug Cutting, principal
nome por
trás do projeto, deu ao seu elefante de pelúcia amarelo

O Hadoop, é bom frisar, é a opção de maior destaque, mas não é a única. É possível encontrar
outras soluções compatíveis com NoSQL ou que são baseadas em Massively Parallel
Processing (MPP), por exemplo.

Finalizando
Não podemos considerar as soluções de Big Data como um arsenal computacional perfeito:
sistemas do tipo são complexos, ainda desconhecidos por muitos gestores e profissionais de TI e a
sua própria definição ainda é passível de discussão.

O fato é que a ideia de Big Data reflete um cenário real: há, cada vez mais, volumes de dados
gigantescos e que, portanto, exigem uma abordagem capaz de aproveitá-los ao máximo. Apenas
para dar uma noção deste desafio, a IBM divulgou no final de 2012 que, de acordo com as suas
estimativas, 90% dos dados disponíveis no mundo foram gerados apenas nos dois anos anteriores.
Até o final de 2015, este volume todo terá aumentado pelo menos duas vezes. Diante deste ponto
de vista, é um tanto precipitado encarar a expressão "Big Data" como uma mero "termo da moda".

Para saber mais sobre o assunto, você pode consultar os links que serviram de referência para
este texto:

Profª Ariane Scarelli FPD 122


 data.ime.usp.br/.../min_01.pdf;
 www.edge.org/...big-data;
 papers.ssrn.com/.../2205145;
 www.ibm.com/software/data/bigdata;
 strata.oreilly.com/.../what-is-big-data.html;
 www.insidecounsel.com/...mentality-ma;
 www.mckinsey.com/...innovation.

Escrito por Emerson Alecrim - Escrito em 13_03_2013 - Atualizado em 13_01_2015

Profª Ariane Scarelli FPD 123


ANEXO R – Tudo Conectado: Conceitos e Representações da Internet das Coisas

Práticas Interacionais em Rede


Salvador -­­ 10 e 11 de outubro de 2012

TUDO CONECTADO: CONCEITOS E REPRESENTAÇÕES DA


INTERNET DAS COISAS1
Talyta Singer2
Resumo: Nos propomos neste artigo a apresentar os diferentes contextos no qual o termo Internet das
Coisas é invocado. A expressão, usada como sinônimo de ambientes conectados, computação ubíqua,
machine-to-machine, web das coisas, internet do futuro e cidades inteligentes (ATZORI et al, 2010;
KRANENBURG et al, 2011; UCKELMANN et al, 2011), começou a ganhar importância na segunda
metade dos anos 2000 e foi relacionada aos carros, casas e cidades inteligentes, etiquetas de
radiofrequência, geolocalização e problemas de privacidade. Nosso trabalho apresenta uma revisão de
literatura dos conceitos mais usados, traça uma linha do tempo dessas tecnologias e faz um retrato de
suas representações na imprensa.

Palavras-chave: internet das coisas, objetos inteligentes, ambientes conectados.

Abstract: In this article, we discuss the different concepts of the Internet of Things. The expression is uses
as synonym of connected ambients, ubicomp, machine-to-machine, web of things, future internet, smart
cities (Atzori et al, 2010; Kranenburg et al, 2011; Uckelmann et al, 2011). It started to gain importance
during the 2000’s second half and is related to smart cars, houses, cities, radio-frequency tags,
geolocalization and privacy issues. The text shows a literature review of these technologies, establishes
a timeline and a picture of its press’ representations.

Keywords: internet of things, smart objects, connected ambients.

Introdução

Você vai receber alguém para jantar. Enquanto dirige do trabalho para casa, com
o carro dizendo qual a rota menos congestionada, seu aspirador de pó limpa a sala e
seu fogão se prepara para cozinhar uma boa refeição. Mudou de ideia? A televisão
escolhe a melhor programação e o telefone faz seu pedido de comida chinesa. Essa é
a visão da Ericsson de uma web social das coisas, mostrada em um vídeo3 que
apresenta o protótipo de uma casa não só conectada e inteligente, mas também muito
simpática e preocupada com seu dono.

1
Artigo apresentado no NT 1 – Sociabilidade, novas tecnologias e práticas interacionais do II Simpósio em
Tecnologias Digitais e Sociabilidade realizado nos dias 11 e 12 de outubro de 2012 em Salvador-BA.
2
Mestranda do Programa de Pós-Graduação em Comunicação e Cultura Contemporâneas da UFBA na linha de
Cibercultura e participa do Grupo de Pesquisa em Cibercidades. Desenvolve pesquisa sobre a Internet das Coisas
e os territórios informacionais. Email: <ytasinger@gmail.com>
3
Disponível em <http://www.youtube.com/watch?v=i5AuzQXBsG4>. Acesso em 20 jul. 2012.

Profª Ariane Scarelli FPD 124


Já no site talking-tree.com, a simpatia fica por conta de uma árvore belga com mais de
cem anos. Equipada com sensores climáticos, câmera, microfone e um software que

transforma os dados em linguagem humana, a Talking Tree4 mostra o que vê e sente em perfis
no Facebook e no Twitter, fotos no Flickr e pequenos trechos de áudio no SoundCloud.
No Rio de Janeiro, sensores, câmeras e camadas de informação mostram trânsito e
ocorrências diversas combinadas em tempo real em um telão de 80m² no Centro de

Operações5. Funcionários de setores que vão da Defesa Civil à Empresa Municipal de


Informática acompanham as informações e tentam resolver problemas urbanos em tempo real.
Enquanto isso em Vitória da Conquista, no interior da Bahia, etiquetas de rádio frequência
instaladas nos uniformes escolares monitoram mais de 20 mil estudantes do ensino básico da

rede municipal de educação6. As etiquetas tem o objetivo de registrar a entrada dos estudantes
na escola e, em caso de falta, autorizar o envio de mensagens para os celulares dos pais dos
alunos ausentes.

Apesar de combinarem diferentes tecnologias e operarem com objetivos distintos, estas


quatro iniciativas ilustram o que se convencionou chamar de Internet das Coisas ou IoT, na
sigla em inglês. O termo é genérico e de sua primeira aparição em 1999 (ASHTON, 1999) até
os dias atuais é usada para designar processos que envolvam objetos conectados em rede e
que produzam e/ou processem informação em tempo real e de forma autônoma.
Nosso objetivo neste artigo é apresentar as diferentes compreensões que o fenômeno
adquiriu ao longo desse tempo e discutir quais são as suas implicações. O texto se divide em
três partes e explora os diferentes entendimentos do termo, cria uma linha do tempo da
evolução da tecnologia e faz um retrato da cobertura jornalística sobre a IoT.

Os diferentes conceitos

A ideia de uma rede mundial de objetos conectados que trocam informação entre si é
bastante amplas e faz com que muitas tecnologias e aplicações diferentes atendam pelo nome
de Internet das Coisas. A organização europeia The Internet of Things Council aponta que
mesmo durante os anos 80, antes de muitas dessas aplicações serem possíveis, projetos
desse âmbito já eram tratados por diferentes nomes:

4
Disponível em <http://www.talking-tree.com>. Acesso em 20 jul 2012.
5
Mais informações em: <http://www.rio.rj.gov.br/web/corio>. Acesso em 28 jul. 2012.
6
Mais informações em: <http://www1.folha.uol.com.br/cotidiano/1065480-uniforme-inteligente-entrega-aluno-
que-cabula-aula-na-bahia.shtml>. Acesso em 25 jul. 2012

Profª Ariane Scarelli FPD 125


ambient intelligence, calm computing, ubicomp, pervasive computing, most
of them pushed by industrial players such as Philips and IBM. A dominant
characteristic unites these different perspectives: a sense that Internet
connectivity is becoming increasingly ubiquitous and pervasive. In other
words, the idea that eventually everything, including mundane physical
artifacts, will be connected. (KRANENBURG et al, 2011, p. 2)7

Algumas variações de entendimento existem em função de limites nacionais. Enquanto


na Europa e na China o termo Internet das Coisas é bem aceito, nos Estados Unidos as
referências mais frequentes são smart objects, smart grid e cloud computing (KRANENBURG et
al, 2011) e refletem diferentes linhas de pesquisa e inovação.
É o que mostrou um estudo publicado em 2010 pelo o pesquisador da USP José Roberto
de Almeida Amazonas, coordenador do CASAGRAS2 e pioneiro da área no Brasil. Ele
pesquisou e analisou as publicações indexadas pelo IIEE Xplore sob o termo “internet of things”
naquele ano e percebeu que a maior parte dos artigos produzidos e conferências realizadas
naquele ano vinham da China (51,3%) e da Europa (37,3%). Amazonas ressalta que o número
de publicações não garante qualidade ou originalidade e nem um retrato muito fiel do campo,
uma vez que o número de publicações norte-americanas fica distorcido nas buscas por “internet
of things”. Para ele a maior parte dos artigos norte-americanos coloca a tecnologia em si mesma
como objetivo, enquanto que os artigos europeus se focam no uso da tecnologia, por exemplo,
eles estão mais centrados no usuário e se preocupam com os benefícios que a IoT pode
fornecer para a sociedade. (AMAZONAS, 2010).
Definir o que é a Internet das Coisas parece ainda mais difícil quando olhamos para a
quantidade de assuntos que a temática pode envolver, como mostram os trabalhos que
procuram catalogar os últimos avanços da pesquisa (YAN et al, 2008; GIUSTO et al, 2010;
ATZORI et al. 2010). Nas publicações existem artigos sobre inteligência espacial, coleta de
dados, sensores de baixo consumo de energia, middleware, segurança de rede, criptografia,
design centrado no usuário, arquitetura de informação e ainda questões relacionadas à
legalidade, transparência e direito sobre os dados colhidos. Ainda existem as publicações que
criam classificações para os possíveis tipos de aplicação que usam de Internet das Coisas
(CERP IoT, 2009; GUO et al, 2011) e a lista aumenta para incluir discussões sobre logística,
transportes, saúde, cuidado com idosos, qualidade de vida, segurança pública, entretenimento
entre outras.
7
Tradução da autora: inteligência ambiente, computação calma, computação ubíqua, computação pervasiva, a
maioria deles empurrados por agentes industriais como a Phillips e a IBM. Uma característica dominante une essas
diferentes perspectivas: o senso de que a conectividade da internet está se tornando cada vez mais ubíqua e
pervasiva. Em outras palavras: a ideia de que eventualmente tudo, incluindo artefatos físicos mundanos, estará
conectado. (KRANENBURG et al, 2011, p. 2)

Profª Ariane Scarelli FPD 126


A própria falta de clareza sobre o termo é tema de publicação e aparece nos trabalhos
de Atzori et al (2011), Guo et al (2011) e Gigli e Koo (2011) e em algumas discussões online,
8
como por exemplo, no blog do pesquisador Tomas Sánchez López da Universidade de Cardiff.
Em 2010, o pesquisador já apontava para a acepção abstrata do termo e acreditava ser mais
fácil dizer o que a Internet das Coisas não é. Para ele, IoT não seria apenas computação
ubíqua ou pervasiva, os dispositivos embarcados ou as aplicações. Não seria apenas um
número de IP para cada objeto, uma vez que sensores podem se comunicar por
radiofrequência; e seria mais do que uma tecnologia de comunicação, já que a maior parte dos
sistemas usa de várias tecnologias.
Uma das tentativas de sintetizar a variedade de questões suscitadas foi feita por Atzori
(2010) na imagem 1. A figura é resultado de um trabalho de catalogação das principais áreas
de pesquisa e tipos de aplicação e oferece uma visão mais complexa da IoT, que para Atzori é
melhor compreendida como um paradigma computacional formado pela sobreposição de
visões orientadas às coisas, à Internet e à semântica.

Figura 1: O paradigma da Internet das Coisas (ATZORI, 2010, p. 2)

8
Disponível em <http://technicaltoplus.blogspot.com.br/2010/03/what-internet-of-things-is-not.html>. Acesso
em 15 jul. 2012.
Profª Ariane Scarelli FPD 127
O problema da sobreposição das visões feita por Atzori é que ela inclui as tecnologias,
mas parece se preocupar pouco com os usuários delas. É possível que o autor imagine que
questões relacionadas à interfaces ou o design possam ser incluídas na categorias de ‘visão
orientadas às coisas”, mas é mais difícil perceber como disputas pela criação de padrões,
legislação sobre privacidade ou direito a informação possam ser incluídas nessa mesma
categoria. Ainda assim, a ideia de um paradigma computacional parece uma boa saída para o
estágio de tecnologia em desenvolvimento.
A ideia de que os objetos conectados representam um outro paradigma computacional
também aparece em Everyware de Greenfield (2006). Para ele, o everyware, tem implicações
profundamente diferentes do que os paradigmas anteriores, não apenas por causa dos tipos
de tecnologias que reúne, mas também pela experiência do usuário que sai de uma situação
em que o tempo, a maneira e a duração do seu envolvimento com um computador (portátil, que
seja) são controladas por ele e passa a lidar com um processamento distribuído no ambiente.
O entendimento de que a IoT cria outros parâmetros para a relação homem-computador é
compartilhada por Kranenburg et al (2010), que acreditam que existam duas principais visões
sobre o fenômeno:

On one side, a reactive position that sees IoT as a layer of connectivity on top
of current institutions, business models, and governance structures. On the
other, a proactive position that sees IoT as a new ontology that will alter the
relationship between human beings, autonomous M2M (Machine to
Machine) processes and decision making structures.9 (KRANENBURG et
al, 2011, p. 9).

Ainda que essa divisão coloque em categorias diferentes modelos de negócios e as novas
relações entre humanos e a IoT, ela reconhece que a autonomização dos objetos garante
caráter relacional do fenômeno. Acreditamos que juntas, as percepções de Atzori (2010), de
um paradigma formado pela intersecção de saberes e tecnologias; de Greenfield (2006), de
recriação da relação entre homem-computação; e a de Kranenburg et al (2011), de uma nova
ontologia; podem funcionar como uma perspectiva interessante para estudos da IoT.
Nossa definição operacional da IoT, portanto, a considera como um paradigma
computacional com implicações profundas no relacionamento entre homens e objetos. No que
tange ao tipo de tecnologia, aceitamos o conceito proposto pela Strategic Research Agenda da

9
Tradução da autora: De um um lado, uma posição reativa que vê a IoT como uma cama de conectividade no topo
das instituições atuais, modelos de negócios e estruturas governamentais. Do outro, uma posição pró-ativa que vê
a IoT como uma nova ontologia que vai alterar a relação entre sere humanos, processos autonomos M2M (machine
to machine) e estruturas de tomada de decisão. (KRANENBURG et al, 2011, p. 9)

Profª Ariane Scarelli FPD 128


Cluster of European Research Projects on the Internet of Things (CERP-IoT) de 2009
que define a IoT como:

dynamic global network infrastructure with self configuring capabilities based


on standard and interoperable communication protocols where physical and
virtual ‘things’ have identities, physical attributes, and virtual personalities
and use intelligent interfaces, and are seamlessly integrated into the
information network. In the IoT, ‘things’ are expected to become active
participants in business, information and social processes where they are
enabled to interact and communicate among themselves and with the
environment by exchanging data and information ‘sensed’ about the
environment, while reacting autonomously to the ‘real/physical world’ events
and influencing it by running processes that trigger actions and create services
with or without direct human intervention. Interfaces in the form of services
facilitate interactions with these ‘smart things’ over the Internet,
query and change their state and any information associated with them, taking
into account security and privacy issues.” (CERP IoT, 2009, p. 6)10

Essa definição reúne diversos fatores, como a criação de uma rede global,
padronização e identidade dos objetos, é bastante ampla e delimita a IoT pelo o que
ela faz: conectar objetos dotados da capacidade de agirem por conta própria, com ou
sem supervisão humana.

Linha do Tempo

A fim de melhor compreender o que entra em jogo quando a expressão Internet


das Coisas é invocada, traçamos uma linha do tempo que reúne projetos e eventos que
culminaram nas diferentes acepções do termo. Não é nosso objetivo mostrar o
desenvolvimento de todas as tecnologias ou discutir quais são os melhores
equipamentos ou sistemas para conectar objetos físicos. Nos interessa olhar para os
eventos que colaboraram para que novos entendimentos do fenômeno fossem criados
e acompanhar o desenvolvimento da pesquisa na área.

10
Tradução da autora: uma infraestrutura de rede dinâmica e global com capacidades de autoconfiguração baseadas
em protocolos de comunicação padronizados e interoperáveis nos quais as ‘coisas’ físicas e virtuais tem
identidades, atributos físicos, personalidades virtuais, usam interfaces inteligentes e são completamente integradas
na rede de informação. Na IoT, é esperado que as ‘coisas’ se tornem participantes ativas dos negócios e dos
processos informacionais e sociais nos quais eles são capazes de interagir e comunicar -se entre eles e com o
ambiente através da troca de dados e informação percebida sobre o ambiente, enquanto reagem de forma autônoma
aos eventos do ‘mundo físico/real’ e o influenciam ao iniciar processos que engatilham ações e criam serviços com
ou sem intervenção humana direta. Interfaces na forma de serviços facilitam as interações com as ‘coisas
inteligentes’ na Internet, informar e alterar seus estados e qualquer informação associada a eles, levando em conta
questões de segurança e privacidade. (CERP IoT, 2009, p. 6)

Profª Ariane Scarelli FPD 129


Nesse sentido, o artigo The Computer of 21st Century de Mark Weiser, publicado em
setembro de 1991 na Scientific American é um marco na pesquisa sobre a Internet das Coisas.
O texto é tido como a primeira publicação sobre a computação ubíqua, o desaparecimento das
tecnologias no tecido da vida cotidiana e aparece citado em praticamente toda a literatura sobre
o assunto.
O termo “internet das coisas”, propriamente, só aparece em 2001 no livro branco de
Brock, também pesquisador do Auto-ID Center (BROCK, 2001). Entretanto, Kevin Ashton, outro
pesquisador do Auto-ID Center, reclama para si a paternidade do termo. Ashton diz que em
1999, usou a expressão pela primeira vez enquanto falava sobre as potencialidades do RFID
na cadeia de abastecimento da multinacional Procter & Gamble. (ASHTON, 2009;
UCKELMANN et al, 2011) Naquele momento, ele falava de uma internet das coisas para
chamar a atenção dos empresários para o fato de que existem coisas que computadores fazem
melhor do que as pessoas que tem tempo, atenção e precisão limitadas.
Outro possível nascimento do termo foi no ano de 1999, quando o então diretor do consórcio
de pesquisa “Things that Think” do MIT Media Lab, Neil Gershenfeld, publicou “When Things
Start to Think” (1999). O livro prevê e descreve algumas experiências de computação usável,
nanotecnologia e preocupações relacionadas às emoções e direitos civis em uma realidade
onde objetos processam informação.
Logo depois, aparece o primeiro eletrodoméstico ‘inteligente’: em junho de 2000, a LG
apresentou sua geladeira inteligente durante um evento na Coreia do Sul11. O produto deveria
fazer par com outros dispositivos, todos conectados à Internet e gerenciáveis através de um
sistema da própria LG. Na ocasião, o presidente da LG nos Estados Unidos, Simon Kang disse
que o eletrodoméstico não apenas resfriava os alimentos como "Consumers can use the Internet
refrigerator as a TV, radio, Web appliance, videophone, bulletin board, calendar and digital
camera"12.
Como observa o site Postscapes, no início dos anos 2000 a ideia de uma rede
de objetos conectados produzindo e trocando informação começa a ganhar visibilidade.
O Guardian publicou em 2003 uma reportagem sobre etiquetas de RFID e a EPC
Network do Auto-ID Centre13. Em setembro de 2004, foi a vez da Scientific American
levantar a questão das casas inteligentes, sensores interligados e tecnologias que
permitam que tudo seja

11
Mais informações em <http://www.beststuff.com/fromthewire/lg-internet-refrigerator-is-at-the-heart-of-the-
digital-home-network.html>. Acesso em 13 jun. 2012.
12
Tradução da autora: Os consumidores podem usar a geladeira com internet como uma TV, radio, para
chamadas com vídeo, bulletin borad, agenda e camera digital.
13
Disponível em <http://www.guardian.co.uk/technology/2003/oct/09/shopping.newmedia >. Acesso em 13 jun.
2012.
Profª Ariane Scarelli FPD 130
conectado em um artigo assinado por Neil Gershenfeld e outros pesquisadores do MIT Media

Lab14. Em 2005, o termo apareceu pela primeira vez no New York Times relacionado às
15
discussões na Cúpula das Nações Unidas para a era da informação naquele ano , seguida

de uma reportagem sobre as maravilhas e perigos dessa tecnologia, poucos dias depois16.
A partir de 2005, a discussão sobre a Internet das Coisas se generalizou, começou a
ganhar a atenção dos governos e aparecer relacionada a questões de privacidade e segurança
de dados. Foi neste ano que a Internet das Coisas se tornou a pauta do International
Telecommunication Union (ITU), agência das Nações Unidas para as tecnologias da informação
e da comunicação, que publica anualmente um relatório sobre tecnologias emergentes. Assim,
depois da barda larga e da internet móvel, a Internet das Coisas ganhou a atenção do órgão e
passou a figurar como o “próximo passo da tecnologias ‘always on’ [...] que prometem um mundo
de dispositivos interconectados em rede” (ITU, 2005, p. 1).

2005 ainda foi o ano do lançamento do Nabaztag17, um objeto com a forma de um coelho que,
conectado a Internet, poderia ser programado para receber a previsão do tempo, ler e-mails ou
notícias, entre outras aplicações. Com diversas possibilidades de uso, o Nabaztag foi o primeiro
objeto inteligente comercializado em escala e que tinha uma função menos “industrial”. Novas
versões do Nabaztag continuam a ser produzidas e a primeira versão do software do coelhinho
foi disponibilizada em código aberto.

O livro Shaping Things de Bruce Sterling também foi publicado em 2005. A obra apresenta
os spimes, objetos “desenhados em telas, fabricados digitalmente e rastreáveis no tempo e no
espaço” (STERLING, 2005, p. 11). A referência aos spimes de Sterling é constante e seu livro foi
o primeiro a esboçar critérios para o desenvolvimento desses objetos.

Em 2006, Adam Greenfield também se preocupou com os objetos conectados e lançou


o livro Everyware. O texto fala sobre uma visão de processamento distribuída no ambiente a
ponto de fazer os computadores, como os conhecemos hoje, desaparecerem. Além de definir
o everyware e como ele deveria funcionar, o trabalho de Greenfield mostra o potencial das
tecnologias ubíquas para o bem-estar (saúde, trabalhos perigosos, muito delicados ou
repetitivos) e os perigos relacionados à vigilância e privacidade.

14
Disponível em <http://www.scientificamerican.com/article.cfm?id=the-internet-of-things>. Acesso em 13 jun.
2012
15
Disponível em <http://www.nytimes.com/2005/11/15/technology/15net.html?_r=1&pagewanted=all
> Acesso em 13 jun. 2012.
16
Disponível em <http://www.nytimes.com/2005/11/20/technology/20iht-wireless21.html>. Acesso em 13 jun.
2012
17
Mais informações em <http://en.wikipedia.org/wiki/Nabaztag>. Acesso em 13 jun. 2012.

Profª Ariane Scarelli FPD 131


Em 2008, foi publicado The Internet of Things de Rob Van Kranenburg, livro que assim
como Shaping Things e Everyware, busca falar sobre um novo paradigma no qual objetos
produzem informação e é uma das grandes referências teóricas sobre a IoT. O texto levanta
questões sobre a agência humana em ambientes que processam informação de forma
autônoma, as novas formas de expressão. O autor expressa preocupações sobre a vigilâncias
que as coisas conectadas podem exercer e a necessidade de se apropriar dessa tecnologia.
Naquele momento, já era possível ver a Internet das Coisas em funcionamento. Em
2008 foi lançado o Patchube.com, plataforma que conecta dispositivos e fornece controle e
armazenamento de dados em tempo real. Recentemente, a plataforma mudou seu nome para
Cosm, mas continua a operar sob a mesma API e com as mesmas características. A iniciativa
permite que usuários conectem seus próprios sensores ou dispositivos e tem um papel
importante na apropriação não-industrial da IoT.
No mesmo ano aconteceu a primeira Internet of Things Conference em Zurique na
18
Suiça , evento que teve suas discussões compiladas em um livro publicado no mesmo ano
sob a organização de Christian Floerkemeier, Marc Langheinrich, Elgar Fleisch, Friedemann
Mattern e Sanjay E. Sarma. Uma segunda edição foi realizada em 2010 em Tóquio e a terceira
edição está marcada para outubro de 2012 em Wuxi na China. Todas as edições foram
organizadas por uma comissão formada entre representantes da grande indústria de tecnologia
e pesquisadores.
Um ano depois da conferência internacional, Salvador sediou o primeiro evento da
temática no Brasil. Organizado pelo CIMATEC SENAI e pela Saint Paul Etiquetas Inteligentes,
o 1º Congresso de Tecnologia, Sistemas e Serviços com RFID aconteceu de 26 a 29 de agosto
na capital baiana. Na segunda edição, o evento mudou de nome para Congresso Brasileiro de
Internet das Coisas e RFID, aconteceu em Búzios em outubro de 2011, mas manteve o foco
empresarial nas discussões e industrial nas aplicações apresentadas nos cases
No Brasil, além do congresso, 2010 marcou a implantação do Centro de Operações do
Rio, quartel general da prefeitura da cidade do Rio de Janeiro que opera com tecnologia de
cidades inteligentes da IBM. No COR um telão de 80 m² mostra o mapa da cidade com camadas
de informação e imagens de câmeras que permitem visualizar o trânsito, condições climáticas
e ocorrências diversas.
Ainda em 2010, o número de objetos conectados a Internet já era superior ao de
pessoas na Terra, segundo cálculos da Cisco IBSG no White paper de Evans (2011, p. 3):

18
O site do evento é <http://www.the-internet-of-things.org/iot2008/>. Acesso em 13 jun. 2012.

Profª Ariane Scarelli FPD 132


Explosive growth of smartphones and tablet PCs brought the number of
devices connected to the Internet to 12.5 billion in 2010, while the world’s
human population increased to 6.8 billion, making the number of connected
devices per person more than 1 (1.84 to be exact) for the first time in
history.19

E com a proliferação de novas tecnologias, começou a discussão sobre a criação de


padrões internacionais que de fato permitam que possa existir uma rede autônoma de objetos
conectados. O ITU das Nações Unidas, desde 2011, vem reunindo especialistas para a
20
consolidação do padrão global .

Mais recentemente, em março de 2012, a União Europeia propôs uma consulta pública21 a fim
de que os cidadãos apontassem suas necessidades e inseguranças sobre a IoT. E em 16 e
17 de junho, Londres sediou a 1ª Open IoT Assembly. Em dois dias de discussão, pessoas
livremente colaboraram para a criação de um documento com os princípios de transparência e

bom uso das informações na IoT22.


É importante ressaltar que nossa análise não abarca todos os eventos e para outros

pontos de vista o site PostScapes.com mantém atualizada uma linha do tempo23 que conta a
história da Internet das Coisas relacionando outros fatores que não foram levados em

consideração nesta análise. O site também apresenta uma lista de definições24 empregadas
por organizações e pesquisadores. Uma relação dos principais avanços tecnológicos que
permitiram a interconexão de objetos pode ser encontrada em Kranenburg et al (2011) que
relaciona e analisa como essas tecnologias se relacionam.
Nossa linha do tempo, ao justapor os eventos que colaboraram para criar a Internet das Coisas,
nos permite perceber que as diferentes significados do termo derivam do contextos em que os
projetos surgiram e assim, Internet das Coisas aparece como sinônimo de ambientes
conectados, computação ubíqua, machine-to-machine, web das coisas, internet do futuro e
cidades inteligentes. Aos poucos, das tecnologias desenvolvidas para a logística e aplicações

19
Tradução da autora: O crescimento explosive dos smartphones e tablets levou o número de dispositivos
conectados a Internet para 12,5 bilhões em 2010, enquanto a população humana aumentou para 6,8 bilhões, fazendo
com que o número de dispositivos conectados por pessoa ser maior que 1 (1,84, para ser exato), pela primeira vez
na história. (EVANS, 2011, p. 3)
20
Mais informações em <http://www.itu.int/en/ITU-T/gsi/iot/Pages/default.aspx>. Acesso em 13 jun. 2012.
21
A consulta pública é realizada através da página
<http://ec.europa.eu/yourvoice/ipm/forms/dispatch?form=IoTGovernance.> Acesso em 20 jul. 2012.
22
A carta de princípios para a IoT aberta pode ser consultada em <http://openiotassembly.com/>. Acesso em 20
jul. 2012.
23
A linha do tempo do site Postscapes está disponível em <http://postscapes.com/internet-of-things-history. Acesso
em 20 jul. 2012.
24
A lista de definições está disponível em <http://postscapes.com/internet-of-things-definition>. Acesso em 20 jul.
2012.

Profª Ariane Scarelli FPD 133


industriais, a ideia de uma Internet das Coisas migrou para aparelhos domésticos, experiências
artísticas, questionamentos sobre privacidade e até debates públicos sobre segurança e
transparência.

A internet das coisas na imprensa

Com o passar do tempo, se proliferaram não só os eventos e publicação dedicados a


IoT, mas também o interesse público, visível no aumento de buscas sobre o tema, como mostra
o gráfico 1:

Gráfico 1: Aumento das buscas pela palavra-chave “internet of things” no Google.com

O gráfico foi gerado pelo Google Insights, serviço que mostra a quantidade de
pesquisas feitas no Google.com a partir de uma palavra-chave. Nesse caso, utilizados
a palavra-chave “internet of things” e o gráfico exibe o crescimento das as buscas feitas
entre 1 de janeiro de 2004 e 12 de agosto de 201225.
Neste contexto, nos interessamos também pelo crescimento das notícias sobre
a IoT e fizemos uma pequena coleta de dados para avaliar como essa tecnologia é
tratada pela imprensa. Consultamos cinco sites de notícias internacionais e 5 sites
nacionais para observar como o tema foi sendo desenvolvido ao longo do tempo, quais
foram os assuntos abordados e
25
Mais informações sobre o gráfico do Google Insights estão disponíveis em <
http://www.google.com/insights/search/?hl=pt-BR#q=%22internet%20of%20things%22&cmpt=q>. Acesso em
12 ago. 2012.
Profª Ariane Scarelli FPD 134
fontes consultadas.
Adotamos como critério de seleção a visibilidade do conteúdo, em detrimento de
questões sobre qualidade no jornalismo. Nossa amostra foi formada a partir dos sites
mais acessados de acordo com o ranking da Alexa.com, empresa que classifica as
páginas de acordo com o alcance global, quantidade de pageviews. Para selecionar as
notícias, usamos os motores de buscas dos próprios sites e buscamos por “internet of
things” nos sites estrangeiros e “internet das coisas” nos sites nacionais. Excluímos da
amostra os sites que não apresentaram nenhum resultado para a busca por palavra-
chave e aqueles com conteúdo. A amostra final foi composta pelos sites CNET News,
The Guardian, Fox News, BBC News, Smart Planet, G1, Terra, IG, Folha de S. Paulo
e Estadão. No total, analisamos 67 notícias internacionais e 29 nacionais. A
distribuição das notícias ao longo do tempo, é a seguinte:

70,0

52,5

35,0

17,5

0
2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012

Gráfico 2 - Quantidade de notícias publicadas por ano

Mesmo em nosso pequeno retrato, ficou claro que na primeira metade dos anos
2000 a cobertura era esparsa e se limitava a manchetes que tinham como título apenas
A Internet das Coisas e tratavam de apresentar sumariamente uma nova tecnologia
que iria conectar diversos tipos de objetos. É a partir de 2009 que os objetos, carros,
casas e cidades inteligentes começam a aparecer com mais frequência e serem
relacionados majoritariamente com o futuro da tecnologia e, em menor proporção, com
preocupações em relação a segurança e privacidade.
As coberturas nacional e internacional não se diferem e usam não apenas dos
mesmos temas, mas também dos mesmos argumentos. O assunto mais abordado é o

Profª Ariane Scarelli FPD 135


lançamento de produtos, seguido pelos textos que tratavam da chegada da IoT. Ainda que
presentes, as questões de legislação, interoperabilidade, ética e privacidade, tão discutidas
nos congressos e publicações, ocuparam os menores espaços na cobertura jornalística.
Se de um lado a cobertura sobre a IoT aumentou, a pequena variedade de temas
explorados parece ser reflexo das fontes usadas nos texto. Em cada notícia, listamos as fontes
citadas ou atribuídas e no caso de ensaios e textos de colunistas, as notícias foram marcadas
como textos de opinião e o resultado é o seguinte:

Gráfico 3: Fontes citadas

Sendo as empresas, tanto de hardware como de software, fabricantes ou vendedoras,


as principais fontes da imprensa, não surpreende o tom futurista e pouco problemático do
textos. A referência mais comum é a de uma tecnologia que vai auxiliar na redução de custos
e recursos (energia, água, combustível, etc.), que é muito confortável, segura e desejável. Em
outras palavras, uma tecnologia plena, desassociada de qualquer tipo de problema.

Conclusões e próximos passos

A multiplicidade de sinônimos e olhares que a Internet das Coisas ganhou ao longo do


tempo é um indicador importante da amplitude do fenômeno e da dificuldade de falar sobre
ele. Demonstramos, ao longo do artigo, que os objetos conectados podem ser usados em
diferentes contextos e passam da condição de próxima grande inovação para mais uma
tecnologia cotidiana.
Entendemos que a Internet das Coisas seja um bom ponto de observação das formas
emergentes de troca de informação. E, neste sentido, é preocupante ver que a imprensa trate

Profª Ariane Scarelli FPD 136


o fenômeno pela ótica das empresas e reproduza os estereótipos de uma visão de futuro com
casas parecidas com a da Ericsson, que apresentamos no início do texto, cheias de objetos
inteligentes que fazem da eficiência e da produtividade um estilo de vida.

Deste modo, se cada vez mais celulares, sensores e câmeras integram nosso dia a dia
e apontam para um futuro de cotidiano completamente conectado (ALBRECHT e MCINTYRE,
2006; GREENFIELD, 2006; KRANENBURG, 2008), importa discutir a IoT como tecnologia
automatizada e em rede que complexifica as discussões sobre agência, autoria, propriedade
e privacidade das informações.

Referências

ALBRECHT, K.; MCINTYRE, L. Spychips. Nova Iorque: Plume Book, 2006.

AMAZONAS, J. R. Opportunities, Challenges for Internet of Things Technologies. IN: VERMESAN,


O.; FRIESS, P. (Orgs). Internet of Things - Global Technological and Societal Trends From Smart
Environments and Spaces to Green ICT. River Publishers, 2010.

ASHTON, Kevin. That ‘Internet of Things’ thing. Publicano no RFID Journal, 2009. Disponível em
<http://www.rfidjournal.com/article/view/4986>. Acesso em 13 jul. 2012.

ATZORI, Luigi; IERA, Antonio; MORABITO, Giacomo. The Internet of Things: a survey.
Computer Networks, 2010.

BROCK, L. The Electronic Product Code (EPC) – A naming Scheme for Physical Objects. 2001.
Disponível em <http://autoid.mit.edu/whitepapers/MIT-AUTOID-WH-002.PDF>. Acesso em 5 jul.
2012.

EVANS, D. The Internet of Things: how the next evolutivon of the intenet is changing everything.
White Paper, CISCO IBSG, 2011. Disponível em
<http://www.cisco.com/web/about/ac79/iot/index.html>. Acesso em 15 jul. 2012.

GERSHENFELD, N. When things Start to Think. Henry Holt and Company: Nova Iorque, 1999.

GIGLI, M.; KOO, S. Advances in Internet of Things. In: Scientific Research, vol 1, p. 27-31, 2011.
Disponível em <http://www.scirp.org/journal/ait/>. Acesso em: 18 ago. 2011.

GIUSTO, D.; IERA, A.; MORABITO, G.; ATZORI, L. (Orgs). The Internet of Things: 20th
Tyrrhenian Workshop on Digital Communication. Springer: Nova Iorque, Dordrecht, Heidelberg,
Londres, 2010.

GREENFIELD, A. Everyware: the dawning age of ubiquitous computing. New Riders: Berkley,
2006.

GUO, B.; DAQING, Z.; ZHU, W. Living with Internet of Things: The Emergence of Embedded
Intelligence, The 2011 IEEE International Conference on Cyber, Physical, and Social Computing,
Dalian, China, 2011. Disponível em < Acesso em 06 jul. 2012. [PDF].

Profª Ariane Scarelli FPD 137


ITU - INTERNATIONAL TELECOMMUNICATION UNION. ITU Internet Reports 2005: The
Internet of Things. Geneva, 2005. Disponível em
http://www.itu.int/osg/spu/publications/internetofthings/. Acesso em 05 jul. 2012.

CERP IoT - INTERNET OF THINGS EUROPEAN RESEARCH CLUSTER. Internet of Things:


Strategic Reserach Roadmap, 2009. <http://www.internet-of-things
research.eu/pdf/IoT_Cluster_Strategic_Research_Agenda_2009.pdf>. Acesso em 05 jul. 2012.

SAHA, D.; MUKHERJEE, A. Pervasive Computing: a paradigm for the 21st century. IEEE
Computer, v.36, n.3, p.25–31, 2003.

SANCHEZ LOPEZ, Tomás. What the Internet of Things is NOT. Disponível em


<http://technicaltoplus.blogspot.com.br/2010/03/what-internet-of-things-is-not.html>. Acesso em 15
jul. 2012.

STERLING, B. Shaping Things. Cambridge e Londres: MIT Press, 2005.

SHEPARD, M. Sentient City: ubiquitous computing, architecture, and the future of urban space.
Cambrigde e Londres: MIT Press, 2011.

UCKELMANN, D; HARRISON, M.; MICHAHELLES, F. (Orgs). Architecting the Internet of


Things. Springer: Nova Iorque, Dordrecht, Heidelberg, Londres, 2011.

KRANENBURG, R. The Internet of Things: a critique ambient technology and the all-seeing
network of RFID. Amsterdã: Institute of Networks Culture, 2008.

KRANENBURG, R.; ANZELMO, E.; BASSI, A.; CAPRIO, D.; DODSON, S.; RATTO, M. The
Internet of Things. 1st Berlin Symposium on the Internet and Society. Outubro de 2011. Disponível
em <http://www.theinternetofthings.eu/sites/default/files/%5Buser-
name%5D/The%20Internet%20of%20Things.pdf>. Acesso em 26 jun. 2012.

YAN, Lu; ZHANG, Yan; YANG, Laurence T.; NING, Huansheng. The Internet of THings: from
RFID to the Next-Generation Pervasive Networked Systems. Auerbach Publications: Nova Iorque e
Londres, 2008.

WEISER, M. The Computer for the 21st Century. Scientific American, v. 265, n. 3, p.94104,
setembro, 1991. Disponível em <http://www.ubiq.com/hypertext/weiser/SciAmDraft3.html>. Acesso
em: 21 jul. 2012.

Profª Ariane Scarelli FPD 138


ANEXO S – Tabela de processadores: Intel

Tabela de processadores: Intel43


POR FABIO JORDÃO – EM PROCESSADORES 02 JUL 2013 — 00H13

A Intel é uma das marcas mais famosas no ramo dos computadores e você provavelmente já ouviu falar
muito dela. Considerada uma das inventoras do microprocessador, a fabricante lançou seu primeiro chip
em 1971, mas foi somente com a popularização dos PCs (por meados da década de 80) que a companhia
lançou a primeira CPU da família x86.

De lá para cá, a Intel se consolidou no mercado com uma série de marcas e produtos. No começo, as linhas
mais famosas foram a Pentium e a Celeron. Depois, a empresa introduziu novos produtos como a linha
Core (que perpetua até hoje) e a linha Atom. A cada ano, uma enxurrada de novos processadores é lançada
para oferecer ainda mais desempenho.

Atualmente, a empresa divide seus produtos em sete linhas principais: Atom, Celeron, Pentium, Intel Core
i3, Intel Core i5, Intel Core i7 e Intel Core i7 Extreme. A maioria dessas séries conta com chips especiais
para notebooks e desktops. Ocorre que muitos itens são lançados anualmente, algo que dificulta o
acompanhamento dos detalhes.

(Fonte da imagem: Reprodução/Wikimedia Commons)

É bem provável que você já tenha visto algum anúncio com um determinado modelo de processador e não
soubesse as configurações específicas. Justamente por conta dessa enormidade de modelos, nós
resolvemos reunir todos os detalhes em um único lugar. A seguir, vamos falar um pouco sobre cada uma
das séries, mas, antes, veja como entender um pouco das informações.

43
Disponível em <https://www.tecmundo.com.br/processadores/2760-tabela-de-processadores-intel.htm>. Acesso em 02
fev. 2017.

Profª Ariane Scarelli FPD 139


Como ler as tabelas
Nome: ordenando os componentes
Os dados das tabelas foram obtidos no site da Intel, sendo que a classificação dos itens segue a mesma do
site da fabricante. Em geral, a organização dos itens foi realizada de acordo com a frequência-base das
CPUs. Os modelos com maior frequência estão no topo e os inferiores são mostrados abaixo. O último item
de cada tabela é o mais simples da série em questão.
Vale notar, no entanto, que nossas tabelas não mostram qual chip oferece o melhor nível de desempenho.
Em teoria, considerando os números, podemos dizer sim que os modelos mais avançados proporcionam
resultados mais eficientes para a maioria das atividades. Contudo, isso não quer dizer que o Intel Core i7-
4770 é o processador mais rápido da fabricante.

(Fonte da imagem: Divulgação/Intel)

Se você busca informações para saber qual oferece maior performance, recomendamos a leitura de análises
especializadas dos principais sites interacionais. Levar apenas os números em conta não serve de muita
coisa para quem deseja adquirir um processador realmente robusto. Afinal, cada chip conta com uma
arquitetura própria e mostra resultados diferentes.

Modelos idênticos
Se você reparar em nossa tabela, há alguns processadores que trazem exatamente as mesmas
especificações de outros modelos semelhantes (veja i3-2100 e o i3-2102). Em casos como esses, pode ser
que um seja para venda e outro apenas para empresas parceiras.

Além disso, outros itens com as mesmas configurações podem ter diferentes valores para temperatura
máxima de operação, tecnologias de processamento (AVX, VT-x e outras) e outras alterações. Há casos em
que o único fator que muda é o TDP, algo que vai afetar diretamente o clock da GPU.

Profª Ariane Scarelli FPD 140


O que significa cada letra?
 K: modelos com esta terminologia são processadores que trazem o multiplicador destravado. São chips ideais
para a realização do procedimento de overclock;
 T: componentes com o TDP reduzido. São processadores com melhor eficiência energética. Além de consumir
menos energia, esses modelos liberam menor quantidade de calor;
 E: os chips indicados com essa letra garantem economia de energia acima de tudo. É justamente por essa razão
que eles trabalham com as menores frequências;
 S: modelos especiais que oferecem maior desempenho. Tais componentes trazem clocks de base e de turbo mais
elevados e garantem poderio extra em todas as atividades;
 R: componentes com maior poderio gráfico. As CPUs Intel Core com a terminologia “R” trazem GPUs Intel®
Iris™ Pro graphics;

(Fonte da imagem: Divulgação/Intel)

 M: linha de produtos mobile. Processadores com essa letra são específicos para notebooks e ultrabooks;
 Q: essa letra indica se um processador é quad-core. Ela referencia tal característica em chips mobile;
 U: são CPUs do tipo “Ultra Low Power”, ou seja, que requisitam pouquíssima energia;
 X: os chips mais avançados da Intel são do tipo eXtreme. Geralmente, os chips “X” contam com mais recursos
(núcleos, threads, clock, cache, etc.) para oferecer desempenho máximo;
 Y: são os processadores mais econômicos. Eles consomem menos energia do que componentes do tipo “U”.

Socket
O socket é o arranjo de conexões na parte inferior do chip, o qual permite a instalação do componente em
um determinado encaixe (com ligações semelhantes) na placa-mãe. A Intel trabalha com três tipos de
socket: LGA, BGA e PGA.

O LGA (Land Grid Array) é um dos padrões de produtos disponíveis para o consumidor. CPUs com esse tipo
de socket podem ser instaladas manualmente, sendo possível trocar de chip com facilidade. O número que
acompanha o a sigla LGA é referente à quantidade de pinos na placa-mãe e aos buraquinhos presentes na
parte inferior do processador.

O BGA é um padrão que geralmente não é disponibilizado para o usuário. Esse tipo de conexão é utilizado
em processadores que serão usados por empresas montadoras de computadores (caso da HP, Samsung e
outras). Basicamente, CPUs com essa característica são soldadas à placa-mãe, o que inviabiliza o comércio
dos componentes.

Profª Ariane Scarelli FPD 141


O PGA é o padrão inverso do LGA. A Intel não utiliza muito esse tipo de conexão, mas alguns processadores
comercializados atualmente — alguns modelos para notebooks — ainda contam com esse socket. Aqui, os
pinos estão presentes no processador, e as conexões (buracos) na placa-mãe.

Núcleos e Threads
Uma das informações que pode diferenciar o desempenho de um componente para o de outro é a
quantidade de núcleos. Considerando as arquiteturas dos atuais softwares, dois núcleos já não oferecem
os mesmos resultados de alguns anos atrás. É justamente por isso que os chips mais robustos são do tipo
quad-core — alguns modelos trazem até seis núcleos.

Todavia, as CPUs da Intel contam com outro fator que pode ajudar no processamento de tarefas
simultâneas. Sim, estamos falando dos threads. Essa característica garante ao chip recursos avançados
para dividir um processo em diversas partes e garantir mais agilidade e opções avançadas em algumas
situações.

(Fonte da imagem: Divulgação/Intel)

A regra é simples: quanto mais threads, melhor o desempenho. Isso quer dizer que, ao comparar dois
processadores com os mesmos recursos (núcleos, frequência, tecnologia turbo, memória cache e GPU),
mas com um número de threads diferentes, o chip com maior quantidade de threads será o mais robusto e
possivelmente garantirá resultados melhores.

Vale salientar, contudo, que esta regra não pode ser levada na ponta do lápis. Existe um negócio chamado
arquitetura. Cada nova geração de processadores traz uma nova arquitetura, a qual pode fazer toda a
diferença na utilização dos recursos — inclusive no aproveitamento de multithreading.

Frequência e Turbo
Se você tem algumas noções básicas de informática, é bem possível que saiba que uma CPU trabalha em
ciclos. Essa quantidade de atividades realizada em repetição é chamada de frequência. Basicamente,
quanto maior a frequência, mais cálculos são realizados em um segundo e, consequentemente, mais tarefas
são realizadas no menor tempo possível.

Profª Ariane Scarelli FPD 142


Apesar de frequências elevadas ajudarem na realização das atividades, isso não quer dizer que um chip
rodando a 20 GHz vá fazer grande diferença. Basicamente, a maioria dos processadores opera com clocks
(termo inglês para frequência) entre 2 e 4 GHz. Normalmente, esse valor é suficiente para a maioria das
atividades.

(Fonte da imagem: Divulgação/Intel)

É importante notar, contudo, que nem todos os softwares se comportam de maneira igual. Em algumas
situações, um pouco de potência adicional pode ser necessária. É nessa hora que entra a tecnologia “Turbo
Boost”. Quando todos os recursos da CPU já estão em uso, esse recurso realiza um overclock automático e
garante um desempenho extra.

O valor especificado em “Máx Clock” é o limite da frequência de operação do processador. É importante


salientar que essa tecnologia não funciona de forma igual para todos os chips. Esse clock turbinado
geralmente é ajustado em apenas um ou dois núcleos, pois poucos programas requisitam tamanha
capacidade dos quatro núcleos.

Detalhe: o Turbo Boost também dá uma melhorada em quatro núcleos em casos extremos.

Sobre o TDP
O TDP (Energia Térmica de Projeto) indica a quantidade máxima de energia liberada pela CPU. Tal valor
também revela qual deve ser a capacidade de dissipação do sistema de refrigeração. Vale ficar ligado para
não confundir o TDP com o consumo de energia do chip.

Quanto à memória
Os atuais processadores Intel contam com três níveis de memória cache. O nível L1 é divido em duas partes:
instruções e dados. Cada parte é dividida em dois, algo que propicia melhores resultados para as atuais
arquiteturas da fabricante. Em nossa tabela, somamos os valores, por isso você vê 128 KB (instruções) +
128 KB (dados), mas o certo seria 64 KB x 2 + 64 KB x 2.

Profª Ariane Scarelli FPD 143


O nível de cache L2 é composto por módulos que são utilizados de forma separada por cada núcleo. É por
isso que um processador de 2 núcleos conta com 2 x 256 KB de cache L2, da mesma forma que um chip de
4 núcleos utiliza 4 x 256 KB.

(Fonte da imagem: Divulgação/Intel)

A memória Smart Cache da Intel é o nível L3. Esse módulo é dividido entre todos os núcleos e armazena
dados que podem ser úteis a todos os cores. Como você deve imaginar, quanto maior o cache L3, maior
será o desempenho do processador.

Quarta geração de processadores Intel Core


Codinome: Haswell
Lançamento: 2013
Litografia: 22 nm
Memória: dual-channel DDR3

Terceira geração de processadores Intel Core


Codinome: Ivy Bridge
Lançamento: 2012
Litografia: 22 nm
Memória: até quad-channel DDR3

Segunda geração de processadores Intel Core


Codinome: Sandy Bridge
Lançamento: 2011
Litografia: 32 nm
Memória: até triple-channel DDR3

Profª Ariane Scarelli FPD 144


Primeira geração de processadores Intel Core
Codinome: Nehalem / Westmere
Lançamento: 2008 / 2010
Litografia: 45 / 32 nm
Memória: até triple-channel DDR3

Intel Core 2
Codinome: Duo (Conroe / Allendale / Wolfdale) - Quad (Kentsfield / Yorkfield)
Lançamento: 2006 / 2007 / 2008
Litografia: 45 / 65 nm

Intel Core 2
 Intel Core 2 Duo E8600
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E8500
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E8400
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E8300
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E8190
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E8200
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E7600
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E7500
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E7400
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E7300
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E7200
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E6850
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E6750
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E6700
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E6600
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E6550
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E6450
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E6420
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E6320
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E6300

Profª Ariane Scarelli FPD 145


 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E4700
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E4600
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E4400
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Duo E4300
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Extreme QX9775
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Extreme QX9770
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Extreme QX9650
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Extreme QX6850
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Extreme QX6000
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Extreme X6800
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Extreme X7900
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Extreme QX6700
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Extreme X7800
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Quad Q9650
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Quad 79550S
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Quad Q9450
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Quad Q9400S
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Quad Q9300
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Quad Q8400S
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Quad Q8300
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Quad Q8200S
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Quad Q6700
 32 KB (instruções) + 32 KB (dados)
 Intel Core 2 Quad 6600
 32 KB (instruções) + 32 KB (dados)

Intel Pentium
Codinome: Wolfdale-3M / Clarkdale / Sandy Bridge
Lançamento: 2010 / 2013
Litografia: 45 / 32 nm

Profª Ariane Scarelli FPD 146


Intel Pentium
 Intel Pentium G2140
 LGA1155
 3,3 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1600)
 Intel Pentium G2130
 LGA1155
 3,2 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1600)
 Intel Pentium G2120T
 LGA1155
 2,7 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1600)
 Intel Pentium G2120
 LGA1155
 3,1 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1600)
 Intel Pentium G2100T
 LGA1155
 2,6 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1600)
 Intel Pentium G870
 LGA1155
 3,1 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1333)
 Intel Pentium G860T
 LGA1155
 2,6 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1333)
 Intel Pentium G860
 LGA1155
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB

Profª Ariane Scarelli FPD 147


 Intel® HD Graphics
 32 GB (DDR3-1333)
 Intel Pentium G850
 LGA1155
 2,9 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1333)
 Intel Pentium G840
 LGA1155
 2,8 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1333)
 Intel Pentium G6960
 LGA1156
 2,933 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Integrado
 16 GB (DDR3-1066)
 Intel Pentium G6951
 LGA1156
 2,8 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Integrado
 16 GB (DDR3-1066)
 Intel Pentium G6950
 LGA1156
 2,8 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Integrado
 16 GB (DDR3-1066)
 Intel Pentium G645T
 ILGA1155
 2,5 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Pentium G645
 LGA1155
 2,9 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Pentium G640T
 LGA1155
 2,4 GHz

Profª Ariane Scarelli FPD 148


 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Pentium G640
 LGA1155
 2,8 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Pentium G630T
 LGA1155
 2,3 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Pentium G630
 LGA1155
 2,7 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Pentium G622
 LGA1155
 2,6 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Pentium G620
 LGA1155
 2,6 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Pentium Extreme Edition 840
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui
 não possui
 Intel Pentium D 830
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui
 não possui
 Intel Pentium D 820
 16 KB(instruções) + 16 KB (dados)
 não possui
 não possui
 não possui

Profª Ariane Scarelli FPD 149


 Intel Pentium D 805
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui
 não possui
 Intel Pentium Extreme Edition 965
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui
 não possui
 Intel Pentium D 960
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui
 não possui
 Intel Pentium Extreme Edition 955
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui
 não possui
 Intel Pentium D 950
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui
 não possui
 Intel Pentium D945
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui
 não possui
 Intel Pentium D 940
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui
 não possui
 Intel Pentium D 935
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui
 não possui
 Intel Pentium D 925
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui
 não possui
 Intel Pentium D 930
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui
 não possui
 Intel Pentium D 915
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui

Profª Ariane Scarelli FPD 150


 não possui
 Intel Pentium D 920
 16 KB (instruções) + 16 KB (dados)
 não possui
 não possui
 não possui
 Intel Pentium 4 Extreme Edition SL7Z4
 não possui
 não possui
 não possui
 Intel Pentium 4 Extreme Edition SL7RT
 não possui
 não possui
 não possui
 Intel Pentium 4 Extreme Edition SL7NF
 512 KB
 não possui
 não possui
 não possui
 Intel Pentium 4 Extreme Edition SL7RR
 512 KB
 não possui
 não possui
 não possui
 Intel Pentium 4 Extreme Edition SL7GD
 512 KB
 não possu
 não possui
 não possui
 Intel Pentium 4 Extreme Edition SL7CH
 512 KB
 não possui
 não possui
 não possui
 Intel Pentium 4 Extreme Edition SLTAA
 512 KB
 não possui
 não possui
 não possui
 Inter Pentium Dual Core E6500K
 32 KB (instruções) + 32 KB (dados)
 não possui
 não possui
 Inter Pentium Dual Core E6500
 32 KB (instruções) + 32 KB (dados)
 não possui
 não possui
 Inter Pentium Dual Core E6300
 32 KB (instruções) + 32 KB (dados)
 não possui
 não possui
 Inter Pentium Dual Core E5400
 32 KB (instruções) + 32 KB (dados)
 não possui

Profª Ariane Scarelli FPD 151


 não possui
 Inter Pentium Dual Core E5300
 32 KB (instruções) + 32 KB (dados)
 não possui
 não possui
 Inter Pentium Dual Core E5200
 32 KB (instruções) + 32 KB (dados)
 não possui
 não possui
 Inter Pentium Dual Core E2220
 32 KB (instruções) + 32 KB (dados)
 não possui
 não possui
 Inter Pentium Dual Core E2210
 32 KB (instruções) + 32 KB (dados)
 não possui
 não possui
 Inter Pentium Dual Core E2200
 32 KB (instruções) + 32 KB (dados)
 não possui
 não possui
 Inter Pentium Dual Core E2180
 32 KB (instruções) + 32 KB (dados)
 não possui
 não possui
 Inter Pentium Dual Core E1260
 32 KB (instruções) + 32 KB (dados)
 não possui
 não possui
 Inter Pentium Dual Core E2140
 32 KB (instruções) + 32 KB (dados)
 não possui
 não possui

Intel Celeron
Codinome: Penryn / Arrandale / Sandy Bridge
Lançamento: 2009 / 2011
Litografia: 45 / 32 nm

Intel Celeron
 Intel Celeron G1620
 LGA1155
 2,7 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1333)
 Intel Celeron G1610T
 LGA1155
 2,3 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB

Profª Ariane Scarelli FPD 152


 Intel® HD Graphics
 32 GB (DDR3-1333)
 Intel Celeron G1610
 LGA1155
 2,6 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1333)
 Intel Celeron G555
 LGA1155
 2,7 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Celeron G550T
 LGA1155
 2,2 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Celeron G550
 LGA1155
 2,6 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Celeron G540T
 LGA1155
 2,1 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Celeron G540
 LGA1155
 2,5 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Celeron G530T
 LGA1155
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Celeron G530
 LGA1155
 2,4 GHz
 64 KB (instruções) + 64 KB (dados)

Profª Ariane Scarelli FPD 153


 2 x 256 KB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Celeron G465
 LGA1155
 1,9 GHz
 32 KB (instruções) + 32 KB (dados)
 256 KB
 1,5 MB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Celeron G460
 LGA1155
 1,8 GHz
 32 KB (instruções) + 32 KB (dados)
 256 KB
 1,5 MB
 Intel® HD Graphics
 32 GB (DDR3-1066)
 Intel Celeron 450
 2,2 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 não possui
 não possui
 Intel Celeron 440
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 não possui
 não possui
 Intel Celeron 430
 1,8 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 não possui
 não possui
 Intel Celeron 420
 1,6 GHz
 12 KB (instruções) + 12 KB (dados)
 2 x 256 KB
 não possui
 não possui
 Intel Celeron E1200
 1,6 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 não possui
 não possui
 Intel Celeron E1400
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 não possui
 não possui
 Intel Celeron E1500

Profª Ariane Scarelli FPD 154


 2,2 GHz
 64 KB (instruções) + 64 KB (dados)
 2 x 256 KB
 não possui
 não possui

A evolução continua...
Esses modelos são apenas uma pequena parte dos tantos processadores já comercializados pela Intel. É
importante notar que a fabricante vai lançar diversos chips no futuro, os quais serão acrescentados nessas
tabelas. Esperamos que as informações tenham sido úteis. Até a próxima!

Profª Ariane Scarelli FPD 155


ANEXO T – O que é Li-Fi e como funciona

O que é Li-Fi e como funciona?44


Conheça a Li-fi, tecnologia promete ser 100 vezes mais rápida que a rede Wi-fi atual. Entenda
como funciona, quando surgiu, quais vantagens e desvantagens em relação a Wi-Fi.

Por Nícolas Müller - 02/12/2015 - atualização: 22/12/2016 08:30

Sabemos que existe tecnologia de internet através de energia elétrica, aqui no Brasil é
comercializado por algumas empresas especializadas no assunto. Mas agora eis que surge a
nova tecnologia de conexão, a LI-FI. A Li-Fi, do termo inglês "Light Fidelity", é uma tecnologia
que emprega luz para transmitir dados em alta velocidade. Diferente da Wi-fi que usa ondas de
rádio, a Li-Fi usa lâmpadas de LED para transmitir as informações.

O quão rápida pode ser a Li-Fi?

A Li-Fi pode transmitir velocidades até 100 Gbps e, possivelmente ainda mais, mas isso exigiria
uma mudança na tecnologia de iluminação. Relatórios de testes recentes mostram que Li-fi é
100 vezes mais rápido do que Wi-Fi tradicional, onde atuam em velocidades médias de WiFi a
10 Mbps.

Testes com diferentes tipos de lâmpadas estudadas, podem chegar a 100Gbps de velocidade.

Quando surgiu a Li-Fi?

A Li-Fi surgiu através das pesquisas do professor Harald Haas, que é presidente das
Comunicações Móveis da Universidade de Edimburgo e co-fundador da pureLiFi. Ele foi a
primeira pessoa a estudar a tecnologia. Usou o termo pela primeira vez durante uma palestra do

44
Disponível em <https://www.oficinadanet.com.br/post/15644-o-que-e-lifi-e-como-funciona>. Acesso em 02 fev. 2017.

Profª Ariane Scarelli FPD 156


TED, em 2011. Mas o projeto em 2010 já começou a receber financiamentos para seu
desenvolvimento, pelo instituto de Edimburgo.

Como funciona a Li-Fi?

A tecnologia Li-Fi usa uma lâmpada real para estabelecer uma comunicação de dados. A partir
de lâmpadas de LED, você será capaz de: Enviar dados, ouvir música, olhar os vídeos e,
finalmente, para se conectar à Internet.

A tecnologia (CLV) Visible Light Communications, funciona com piscadas das lâmpadas, a
famosa frequência. Onde são ligadas e desligadas as lâmpadas em períodos de nanossegundos,
o que torna imperceptível aos olhos e ouvidos humanos. Os LEDs são diferentes de qualquer
outro tipo de lâmpadas, pois são semicondutores. Esta característica dá aos LEDs a capacidade
de ligar e desligar em nanossegundos.

Um receptor capta esta frequência de piscadas, através de um foto detector, e consegue


identificar as informações que estão sendo enviadas. Assim como um modem faz hoje com os
sinais eletromagnéticos que são transmitidos através de cabos par trançados ou coaxiais, e
também como as fibras ópticas atuam.

Profª Ariane Scarelli FPD 157


Desvantagem:

Mas sabemos que ondas de luz não podem penetrar paredes, como ondas de rádio fazem, desta
forma a Li-Fi tem seu alcance diminuído a cômodos de sua casa ou escritório, por exemplo.
Entretanto, basta que cada cômodo tenha as lâmpadas que possam enviar as informações.

Vantagens:

A Li-Fi possui vantagem de apta para uso em áreas sensíveis à ondas eletromagnéticas, como
cabines de aeronaves, hospitais e usinas nucleares, pois obviamente não possuem ondas
eletromagnéticas.

Outra vantagem é que o espectro da luz visível é 10 mil vez maior que todo o espectro da rádio
frequência. E a US Federal Communications Commission tem alertado para uma potencial crise
no espectro da Wi-Fi, que está próximo de atingir o seu limite.

Os pesquisadores também veem a Li-Fi como uma vantagem em relação a hackers, pois seu
Wi-Fi está "visível" fora do ambiente de casa ou do escritório, já a Li-Fi não consegue atravessar
paredes, o que mantêm a rede dentro dos ambientes.

Alguns Testes

Um teste feito em 2013, por Chi Nan, professor de Tecnologia da Informação da Fudan
University, localizada em Shanghai, na China, conseguiu manter quatro computadores
conectados à Internet por meio de apenas uma lâmpada de LED com um alcance de 150 Mbps.

Profª Ariane Scarelli FPD 158


Já os pesquisadores alemães atingiram a marca de 500 Mbps com aparelhos colocados a 2 m
um dos outros. Com a distância de 20 m, a velocidade caiu para 100 Mbps. Até então, a
velocidade mais rápida relatada era de 3 Gb/s, pelo Instituto Heinrich Hertz Fraunhofer, na
Alemanha.

O que preciso para funcionar Li-Fi dentro da minha casa?

Primeiramente, você vai continuar a receber a internet do seu provedor, só que o modem que
vai transmitir a internet para seu ambiente, vai ser um modem conectado a rede elétrica da casa.
As lâmpadas precisam ser as transmissoras, ou seja, precisaria trocá-las. E seus dispositivos
terem um sensor foto detector para receber os impulsos elétricos e converter em dados.

Aparentemente está longe de termos a tecnologia funcionando em nossos lares, porém com o
avanço das pesquisas, poderemos ter em alguns anos. Os dispositivos necessários não devem
ser caros. Empresas como Samsung já cogitam inserir os detectores em seus próximos
smartphones.

Outro ponto essencial é o apoio da indústria para essa nova tecnologia, principalmente os
fabricantes de dispositivos móveis, que é categoria de aparelhos que o Li-Fi trabalhará
diretamente. Fabricantes como Samsung e LG já estão cogitando incluir sensores Li-Fi em seus
futuros smartphones.

E aí, o que achou da nova tecnologia? Estaria disposto a mudar Wi-Fi para Li-Fi?

Profª Ariane Scarelli FPD 159


ANEXO U – Por dentro do universo sombrio da Deep Web [infográfico]

Por dentro do universo sombrio da Deep Web [infográfico]45

45
Disponível em <https://www.tecmundo.com.br/infografico/44580-por-dentro-do-universo-sombrio-da-deep-web-
infografico-.htm>. Acesso em 02 fev. 2017.

Profª Ariane Scarelli FPD 160


Profª Ariane Scarelli FPD 161
Você já deve ter ouvido falar na Deep Web, que constitui a parte da internet que não é indexada pelos
motores de busca que existem em todo o mundo. Isso significa que ela é composta por aquelas páginas que
você não consegue encontrar utilizando o Google, o Bing ou qualquer outra ferramenta similar. Mas o que
existe nesse universo secreto e como chegar até ele?

As respostas podem ser simples, mas os caminhos nem tanto. A Deep Web é composta por vários níveis de
ocultamento — que exigem diferentes formas de acesso. Para que isso fique mais claro, vamos separar a
internet em algumas camadas. Ao contrário de outras publicações, não utilizaremos essas camadas para
diferenciar os conteúdos existentes (principalmente porque o teor deles é parecido e chega a se confundir
em muitos momentos), mas para deixar mais claras as formas de acesso a elas.

Onde nem os olhos do Google alcançam

Tecmundo, Google, Facebook, Baixaki e outros sites que estamos acostumados a acessar ficam na parte da
internet que é chamada de “Surface”. Em uma tradução literal, é a superfície da web. Essa “região” é
entendida pelos motores de busca e pode ser acessada facilmente. Mas logo abaixo da superfície existe
uma zona composta por sites comuns e não indexados.

Isso significa que há muitas páginas que precisam de links diretos para serem acessadas. Em um resumo
bem simples, são sites que não estão escondidos e que também não estão visíveis. Isso engloba uma grande
quantidade de páginas criadas na década de 1990, somadas a diversas que foram feitas mais recentemente
e que tiveram a indexação bloqueada — basta uma linha de programação para isso.

Mas o que faria alguém não querer ter o site indexado? São diversas as razões. Isso vai desde a necessidade
de manter o sigilo de algumas informações até a simples opção dos programadores. Alguns bons exemplos

Profª Ariane Scarelli FPD 162


são os sistemas de universidades, que não podem ser vistos normalmente e não são indexados, mas podem
ser acessados com links diretos. Em suma: não são secretas, mas não são visíveis.

Indo um pouco além

Se a internet “surface” engloba os sites indexados e os não indexados — estes já podendo ser colocados em
um primeiro nível de “deep web” —, a parte mais profunda não seria tão simples de ser acessada. Em uma
primeira camada, não basta ter um link direto, pois somente computadores com proxy correto têm
permissão para acessar algumas informações.

(Fonte da imagem: Reprodução/Hidden Wiki)

Mais abaixo ainda, surgem os sites e fóruns que exigem o acesso distribuído — o que garante o anonimato
nas trocas de dados. Para isso, somente com navegadores e redes com suporte a sistemas Tor ou similares.
Esqueça os “www” e os “.com.br”. Na Deep Web os endereços parecem mais com senhas de alta segurança
do que com sites tradicionais.

Esses fatores se somam e, dessa forma, garante-se o anonimato, pois a navegação é distribuída por diversos
caminhos, não permitindo o rastreio direto à fonte das informações que estão sendo trocadas. Em resumo,
a navegação por Tor oferece muito mais segurança aos usuários do que a comum, e isso é essencial para
evitar que os domínios consigam existir sem ser rastreados.

Depois de mudanças de proxy e navegadores com Tor, há relatos de que existe uma camada ainda mais
profunda. Ela exigiria modificações específicas no hardware dos computadores, criando uma camada muito
restrita. É importante dizer que não há confirmações de que essa área de Deep Web realmente exista, mas
ela vem sendo citada em muitos artigos sobre o tema já faz algum tempo.

Profª Ariane Scarelli FPD 163


O que faz as camadas serem diferentes?

Há quem fale em “Surface”, “Bergie”, “Deep”, “Charter” e “Mariana’s” Web para diferenciar os tipos de
conteúdos que podem ser encontrados em cada camada. Mas a grande verdade é que as diferenças
principais estão nos modos de acesso — que estão diretamente ligados ao quanto as pessoas querem
esconder esses conteúdos do público “comum”. Sem nomenclaturas que apenas dificultam ainda mais a
compreensão do assunto, vamos a um rápido resumo:

 Primeiro nível: internet comum, que pode ser acessada por qualquer pessoa e que é indexada pelos
motores de busca;
 Segundo nível: internet comum, que pode ser acessada por qualquer pessoa, mas não é indexada
pelos motores de busca;
 Terceiro nível: internet restrita, que necessita a alteração de proxy para ser acessada;
 Quarto nível: internet mais restrita, que demanda a utilização de navegadores com distribuição de
acesso (Tor);
 Quinto nível: internet “secreta” (não confirmada), que exige a alteração do hardware para que as
comunicações ocorram.

Existe algo bom abaixo da superfície?

Por causa de uma série de fatores, costumamos pensar que a Deep Web é um depósito de conteúdos ilegais
e imorais, com disponibilização de softwares para invasão de sistemas, guias de terrorismo e outros
materiais que levariam qualquer pessoa para a cadeia. Isso existe, mas não é uma exclusividade. Assim
como acontece na superfície da internet, há uma grande diversidade de conteúdos.

(Fonte da imagem: Thinkstock)

E isso acontece em todas as camadas da rede. Existem os hackers que compartilham informações para
derrubar sites de conteúdo ilegal — e que colaboram com a polícia para que criminosos vão para a cadeia.
E existem os que compartilham itens ilegais (nos mais variados graus de ilegalidade e ofensividade) e
oferecem serviços do mesmo gênero (vendas de armas, drogas e afins).

Profª Ariane Scarelli FPD 164


Voltando ao “lado bom da Deep Web”. Nos locais corretos, é possível encontrar sistemas colaborativos de
altíssima qualidade para os mais diversos fins. Mas é de extrema importância tomar alguns cuidados ao
navegar por lá. Um deles é utilizar o navegador Tor em computadores sem informações sigilosas, pois as
chances de invasão existem — ainda mais se você clicar em algum link indevido.

.....

Há muitas lendas que envolvem a Deep Web e não há como dizer quais delas são verdadeiras e quais não
são. Isso é extremamente difícil de ser mensurado, uma vez que a quantidade de informações que circulam
nessas redes é imensa. Se você quiser tentar, lembre-se do que acabamos de dizer: não clique em nada que
você encontrar. Você vai tentar navegar por lá ou acha melhor ficar aqui no raso?

Profª Ariane Scarelli FPD 165

Você também pode gostar