Escolar Documentos
Profissional Documentos
Cultura Documentos
Nome: __________________________________
Turma: _______________
FPD
1º Bimestre
2017
SUMÁRIO
1 INTRODUÇÃO ......................................................................................................................... 1
1.1 HISTÓRICO - Desenvolvimento dos Computadores ................................................ 1
2 GERAÇÕES DOS COMPUTADORES ................................................................................ 2
2.1 Primeira Geração ............................................................................................................ 2
2.2 Segunda Geração ........................................................................................................... 4
2.3 Terceira Geração ............................................................................................................ 5
2.4 Quarta Geração ............................................................................................................... 7
2.5 Quinta Geração ............................................................................................................. 11
2.6 Sexta Geração ............................................................................................................... 12
3 CLASSES ................................................................................................................................ 16
3.1 Supercomputador .......................................................................................................... 16
3.2 Servidor Corporativo/Data Center .............................................................................. 17
3.3 Minicomputador ............................................................................................................. 18
3.4 Microcomputador ........................................................................................................... 19
3.5 Notebook, Netbook e Ultrabook .................................................................................. 20
3.6 Handheld e Tablet ......................................................................................................... 21
4 INTERNET – Histórico e Desenvolvimento ....................................................................... 23
5 CONFIGURAÇÃO DOS COMPUTADORES .................................................................... 25
5.1 Configuração da Memória Principal ........................................................................... 25
5.1.1 Memória RAM (Random Access Memory)................................................................ 25
5.1.2 Memória ROM (Read Only Memory) ......................................................................... 27
5.2 Memória Auxiliar ............................................................................................................ 28
5.3 Unidades de Medida Computacional ......................................................................... 29
5.4 Unidade Central de Processamento (CPU) .............................................................. 31
5.4.1 Unidade de Controle (UC) ........................................................................................... 31
5.4.2 Unidade Lógica e Aritmética (ULA) ............................................................................ 31
5.4.3 Outros componentes .................................................................................................... 32
5.5 Unidades de Entrada e Saída de Dados ................................................................... 32
6 CARREIRAS E PROFISSÕES ............................................................................................ 34
6.1 Especialista em Cloud Computing.............................................................................. 34
6.2 Gestor em Big Data ...................................................................................................... 34
6.3 Administração de Banco de Dados ............................................................................ 35
6.4 Administração de Redes .............................................................................................. 35
6.5 Arquitetura de Informação ........................................................................................... 36
6.6 E-commerce ................................................................................................................... 36
6.7 Processamento de Dados............................................................................................ 37
6.8 Programação.................................................................................................................. 37
6.9 Qualidade do Software ................................................................................................. 38
6.10 Segurança da Informação............................................................................................ 38
6.11 Sistemas ......................................................................................................................... 38
6.12 Suporte Técnico em Informática ................................................................................. 39
6.13 Gerência de Projetos de TI .......................................................................................... 39
6.14 Desenvolvimento Web.................................................................................................. 40
7 INTRODUÇÃO AO SOFTWARE......................................................................................... 41
7.1 Conceitos de Linguagens de Programação .............................................................. 41
7.2 Gerações das Linguagens ........................................................................................... 41
7.2.1 Primeira Geração .......................................................................................................... 42
7.2.2 Segunda Geração ......................................................................................................... 42
7.2.3 Terceira Geração .......................................................................................................... 42
7.2.4 Quarta Geração ............................................................................................................. 43
7.2.5 Quinta Geração ............................................................................................................. 43
7.3 Nível das Linguagens ................................................................................................... 44
7.4 Linguagens Tradutoras ................................................................................................ 45
7.4.1 Compiladores ................................................................................................................. 45
7.4.2 Interpretadores .............................................................................................................. 46
8 REFERÊNCIAS ...................................................................................................................... 47
9 SITES ÚTEIS/INTERESSANTES ....................................................................................... 48
10 APÊNDICES ........................................................................................................................... 50
APÊNDICE A – Família de processadores Intel.................................................................... 50
11 ANEXOS ................................................................................................................................. 52
ANEXO A – Entrevista: Raymond Kurzweil (Seremos todos cyborgs).............................. 52
ANEXO B – Revelados os empregos do futuro ..................................................................... 56
ANEXO C – Os efeitos danosos da overdose de informação............................................. 58
ANEXO D – IBM se prepara para duelo entre homem e máquina ..................................... 60
ANEXO E – Internet alcança marca de 2 bilhões de usuários no mundo, diz ONU ....... 62
ANEXO F – Programação: Como escrever um código limpo? ........................................... 64
ANEXO G – Depois do controle remoto ................................................................................. 67
ANEXO H – Cientistas criam o menor transistor do mundo: um átomo ............................ 70
ANEXO I – Tablets e notebooks chegam mais perto de extinguir PC de mesa .............. 71
ANEXO J – Quer ganhar mais? Seja um craque de TI ........................................................ 74
ANEXO K – Quais as diferenças entre Notebook e Ultrabook? ......................................... 77
ANEXO L – Internet: 25 anos do WWW ................................................................................. 80
ANEXO M – Computador pessoal faz 33 anos. Conheça a história do IBM PC ............. 83
ANEXO N – Entendendo os SSDs .......................................................................................... 94
ANEXO O – ‘Nômades digitais’ trocam rotina por vida de viagens e trabalho online ... 101
ANEXO P – Até quando o padrão será trabalhar das 8 às 18h? ..................................... 107
ANEXO Q – O que é Big Data? ............................................................................................. 115
ANEXO R – Tudo Conectado: Conceitos e Representações da Internet das Coisas .. 124
ANEXO S – Tabela de processadores: Intel ........................................................................ 139
ANEXO T – O que é Li-Fi e como funciona ......................................................................... 156
ANEXO U – Por dentro do universo sombrio da Deep Web [infográfico] ....................... 160
v2017.1.0
Pesquisa sobre diversos tópicos históricos: serão apresentados temas para pesquisa e
apresentação em laboratório.
Figura 4 – UNIVAC I
1
Disponível em: http://www.tecmundo.com.br/infografico/9421-a-evolucao-dos-computadores.htm. Acesso em fev. 2015.
2
Common Business Oriented Language (COBOL) foi desenvolvido a partir de 1960.
3
FORmula TRANslator foi desenvolvido a partir de 1957.
4
Em 1964, Thomas Kurtz e John Kemeny criaram o BASIC para seus alunos da faculdade de Dartmouth (New
Hampshire, Estados Unidos).
5
Imagens de LAN, MAN, WAN, PAN, SAN. Disponível em: http://pplware.sapo.pt/tutoriais/networking/lan-man-wan-pan-
san-%E2%80%A6-sabe-a-diferenca/. Acesso em fev. 2015.
6
Disponível em: http://www.tecmundo.com.br/infografico/9421-a-evolucao-dos-computadores.htm. Acesso em fev. 2015.
▫ Big Data – é o uso da tecnologia para lidar com um grande volume de dados digitais e
desestruturados que circula na Internet, em tempo real. O principal objetivo é produzir
relatórios que auxiliem os gestores na tomada de decisão empresarial. Diariamente
milhões de Tweets, posts no Facebook, vídeos publicados no YouTube, revelam o
comportamento das pessoas e a maneira como elas pensam. Ao analisar essa massa de
dados desestruturados com os recursos de Big Data é possível obter Informações que
podem ajudar uma empresa em como melhorar seu produto, produzir mais, evitar
desperdícios, oferecer mais qualidade nos serviços prestados ao cliente. Leia o ANEXO
Q – O que é Big Data?” para saber mais a respeito.
3.1 Supercomputador
Exemplos: Cray YMP, Conection Machine CM-5, NEC SX-3R, Intel Touchstone Delta,
IBM BlueGene, DeepBlue (que jogou xadrez com Kasparov). Leia o ANEXO D – IBM se prepara
para duelo entre homem e máquina.
10
Originalmente, mainframe referia-se ao gabinete que alojava a CPU, por associação o termo passou a ser aplicado aos
computadores de grande porte desenvolvidos no final dos anos 1950.
3.3 Minicomputador
Figura 25 – Minicomputador
11
Leia artigo no ANEXO E – Internet alcança marca de 2 bilhões de usuários no mundo, diz ONU.
12
Revista Superinteressante, ed. 274, jan./2010, p. 56-57
OU
Memória
CPU
DRAM (dinamic RAM ou RAM dinâmica): chip de memória que armazena cargas elétricas
em capacitores, que são pequenos componentes eletrônicos capazes de armazenar carga. Um
capacitor carregado equivale a um dado “1” e um capacitor descarregado a um “0”. Como os
capacitores paulatinamente vão perdendo sua carga, o conteúdo dos chips DRAM precisa ser
continuamente renovado, o que justifica o nome "dinâmico". A essa renovação dá-se o nome de
refresh.
Características:
▫ Barata;
▫ Fácil integração (muita capacidade em pouco espaço físico)
▫ Baixo consumo de energia;
▫ Lenta, pois necessita de refresh.
SRAM (static RAM ou RAM estática): extremamente rápida e de alto consumo de energia.
Não utiliza capacitores, mas circuitos digitais chamados flip-flops para o armazenamento de cada “0”
ou “1”, sem a necessidade de nenhum ciclo de refresh. Portando, uma vez carregada, as informações
são mantidas até que o computador seja desligado ou até que os endereços de memória sejam
ocupados por outros dados. No mesmo espaço onde poderíamos ter vários capacitores (que são
pequenos) teremos somente alguns flip-flops (pois são grandes). Este tipo de memória é bem mais
caro e os circuitos, maiores. Exemplo: memória cache.
Características:
▫ Cara;
▫ Difícil integração (pouca capacidade em muito espaço físico);
▫ Alto consumo de energia;
▫ Rápida.
O computador é um universo regido por sinais elétricos. Esses sinais elétricos são a única
linguagem compreendida por qualquer tipo de dispositivo eletrônico (gadget) ou computador. A
Linguagem do Computador é baseada na existência ou não de um sinal elétrico e recebe o nome
de Sistema Binário, representado matematicamente pelos números 0 e 1.
BIT (Binary Digit - dígito binário): cada valor interpretado pela máquina; a menor unidade de
informação que se pode ter no computador.
BYTE (Binary Term): conjunto de 8 bits usado para representar qualquer caractere de nossa
língua ou símbolo (é possível a representação de 256 caracteres - de 0 a 255), é a unidade padrão
de medida de memória.
O BYTE, nos primeiros computadores, era chamado de word (palavra) e indicava o tamanho
do dado que trafegava entre a memória principal e o processador de um computador num
determinado instante, numa via de tráfego interna (barramento) que comportava apenas 8 bits. Com
o desenvolvimento tecnológico foram criados computadores com barramentos maiores, de 16, 32 e
64 bits.
Word é uma unidade básica de armazenamento do computador; é uma quantidade de bits
definida equivalente a quantidade (de bits) que um barramento de dados pode movimentar (uma
sequência de 8 a 64 bits), ocupando uma única localização de armazenamento e processada como
uma unidade pelo computador.
Os agrupamentos de bits recebem nomes especiais e representam uma variação de números
bastante definida:
▫ Um grupo de 4 bits é chamado de NIBBLE
▫ Um grupo de 8 bits é chamado de BYTE
▫ Um grupo de 16 bits é chamado de WORD
▫ Um grupo de 32 bits é chamado de DOUBLE WORD
▫ Um grupo de 64 bits é chamado de QUAD WORD
16
Ver Apêndice A.
Para que a CPU consiga realizar suas funções adequadamente, são ainda necessários outros
componentes:
Registradores: posições de memória construídas na própria CPU que são usadas para
armazenar os dados que estão sendo processados pela instrução atual. Por exemplo, a UC
pode carregar dois números da memória para os registradores da ULA. Depois mandar a ULA
executar uma operação.
Barramentos: o barramento (bus) é uma via de tráfego interna através da qual os sinais
transitam entre os diversos componentes do computador. Existem vários barramentos, porém
três deles são chamados de “Principais”: barramento de dados, barramento de endereços e
barramento de controle.
Clock: circuito oscilador que tem a função de sincronizar e ditar a medida de velocidade de
transferência de dados entre duas partes essenciais de um processamento. Ao clock está
associada uma medida de frequência com que operações são realizadas (ciclos por segundo).
A Figura 27 apresenta a organização básica de um computador.
Placa mãe
Unidades de CPU
Entrada
UC Unidades de
Saída
Memórias
Auxiliares Memória Registradores ULA
Cache
O armazenamento de dados em nuvem é uma das áreas apontadas pelos especialistas que
exigirá profissionais especializados.
“Há a questão da exigência global por agilidade. O mundo é móvel, as informações não
precisam mais ser armazenadas no hardware, hoje é possível acessar qualquer tipo de informação
de qualquer lugar”, explica um especialista.
Matemática, estatística e computação são as áreas de formação mais adequadas para esta
profissão.
Não foram encontradas referências salariais.
Profissão que vem ganhando destaque no Brasil17 é a de gestor em Big Data, também
conhecida como Cientista de Dados. Utiliza tecnologias para a captura, armazenamento,
processamento e análise de informações de grandes bases de dados, bem como grande volume de
dados desestruturados que trafega na Internet em tempo real.
Idem ao tópico anterior, matemática, estatística e computação são as áreas de formação mais
adequadas para quem pretende seguir nesta profissão.
É o segmento que cuida da criação, segurança e manutenção dos dados do banco e das
informações geradas pelas empresas, desde o cadastro de clientes e fornecedores, até dados
relativos a pesquisas de mercado e concorrência. Quem segue esta carreira é chamado de
Administrador de Banco de Dados (DBA, sigla em inglês).
Segundo a Catho Online19, o salário médio para iniciantes: RS 2.400,00; Salário médio para
topo da carreira: RS 8.200,00.
Segundo o Salariômetro20: Salário médio de admissão: RS 3.795,00.
Novo Salariômetro (maio a outubro de 2015): R$ 4.904,00
Segundo a Catho Online, o salário médio para iniciantes: RS 2.800,00; Salário médio para
topo da carreira: RS 10.500,00.
Segundo o Salariômetro: Salário médio de admissão: R$ 5.920,00.
Novo Salariômetro, Engenheiro de Sistemas Computacionais - Aplicativos (maio a outubro de
2015): R$ 7.427,00.
6.6 E-commerce
6.8 Programação
É o setor responsável por testar e aprovar os programas desenvolvidos por outras equipes
e/ou empresas. O trabalho de qualidade é essencial para garantir a satisfação dos usuários. Envolve
análise de usabilidade e interação humano-computador (IHC).
Segundo a Catho Online, o salário médio para iniciantes: RS 1.500,00; Salário médio para
topo da carreira: RS 8.500,00.
Segundo o Salariômetro: não cadastrado.
Novo Salariômetro: não cadastrado.
6.11 Sistemas
22
ISO/IEC 2382-1, 1993.
23
Desenvolvida a partir de 1960, foi a primeira linguagem para desenvolvimento de software de IA.
De forma simples, a GC pode ser definida como um processo de captura, distribuição e uso
eficaz do conhecimento utilizando a tecnologia da informação. A parte acessível aos usuários dos
sistemas de GC dá-se através da disponibilização de informações por meio de portais e com o uso
de sistemas de gerenciamento de conteúdo (Enterprise Content Management).
Características:
▫ Desenvolvidas para eliminar as dificuldades de programação em LM e Assembly.
▫ Comandos fáceis de memorizar (próximos à linguagem humana) e com grande poder de
programação (um comando substitui vários em LM ou Assembly).
▫ Podem ser utilizadas em diversos computadores.
▫ Programação, correção de erros, alterações mais fáceis que em LM ou Assembly.
▫ Programas menores.
7.4.1 Compiladores
Características:
▫ Processo de tradução chamado COMPILAÇÃO: o programa fonte é traduzido para LM,
gerando um programa EXECUTÁVEL, que é posteriormente executado pela CPU.
▫ Na compilação ocorre a verificação dos erros de sintaxe.
▫ Exige nova compilação a cada alteração.
▫ O fonte não é usado na execução, apenas o executável, tornando o processamento mais
rápido.
7.4.2 Interpretadores
Características:
▫ Traduzem e executam um comando de cada vez NÃO geram o EXECUTÁVEL.
▫ Permitem a execução de trechos do programa, sem que esteja completo.
▫ Usam o fonte na execução, tornando o processamento mais lento.
▫ Correção de erros e alterações mais fáceis que nos compiladores, porque o cursor
normalmente pára sobre o erro.
Exemplos: DBASE, QBASIC, VISUAL BASIC até a versão 3.x, PHP etc.
AWAD, Elias M.; GHAZIRI, Hassan M. Knowledge management. 1 Ed, Prentice Hall, 480p, 2003.
LEITE, Mario. Técnicas de programação – uma abordagem moderna. Rio de Janeiro: Brasport,
2006.
PUBLISHING STAFF, Peter Collin. English dictionary of computing. 4 Ed, Oak Park, IL, USA:
Peter Collin Publishing, Limited, 2000. Disponível em
<http://site.ebrary.com/lib/unesp/Doc?id=10022158&ppg=47>. Acesso em jul. 2008.
TORRES, Gabriel. Hardware curso completo. 4 Ed, Axcel Books, 1398p, 2002.
VELLOSO, Fernando de Castro. Informática conceitos básicos. 4 Ed, Campus, 351p, 1997.
http://www.nic.br
Em inglês: http://www.howstuffworks.com/
Em português: http://www.hsw.uol.com.br/
Online Dictionary, Encyclopedia and much more (dicionário on-line, enciclopédia e muito
mais - em inglês): http://www.answers.com/
TED Ideas Worth spreading (ideias que merecem ser espalhadas) – palestras em vídeo
legendadas em português: http://www.ted.com
A tabela a seguir ajuda a entender as diferenças entre os processadores que a Intel lançou nos
últimos anos.
Largura
Velocidade
Nome Data Transistores Mícrons de MIPS
do clock
dados
8080 1974 6.000 6 2 MHz 8 bits 0,64
16 bits
8088 1979 29.000 3 5 MHz 0,33
8 bits
80286 1982 134.000 1,5 6 MHz 16 bits 1
80386 1985 275.000 1,5 16 MHz 32 bits 5
80486 1989 1.200.000 1 25 MHz 32 bits 20
32 bits
Pentium 1993 3.100.000 0,8 60 MHz 100
64 bits
Pentium 32 bits
1997 7.500.000 0,35 233 MHz 300
II 64 bits
Pentium 32 bits
1999 9.500.000 0,25 450 MHz 510
III 64 bits
Pentium 32 bits
2000 42.000.000 0,18 1,5 GHz 1,700
4 64 bits
Pentium
32 bits
4 2004 125.000.000 0,09 3,6 GHz 7,000
64 bits
"Prescott"
Pentium 2,8 GHz
2005 230.000.000 90nm 32 bits
D 3,2 GHz
1,33
Core2 2006 152.000.000 65nm 32 bits 26,000
2,33 GHz
Core 2
2007 820.000.000 45nm 3 GHz 64 bits 53,000
Duo
2,66 GHz
Core i7 2008 731.000.000 45nm 64 bits 76,000
3,2 GHz
Fonte: The Intel Microprocessor Quick Reference Guide (em inglês)
25
Como Tudo Funciona. Disponível em: <http://informatica.hsw.uol.com.br/microprocessadores1.htm>. Acesso em 26/fev/2011.
26
Texto extraído de Guimarães e Johnson (2007, p. 27).
27
TERRA, J. C. C; GORDON, C. Portais corporativos – a revolução na gestão do conhecimento. São Paulo: Negócio Editora,
2002.
28
Idem.
29
WURMAN, R. Ansiedade de informação – como transformar informação em compreensão. São Paulo: Cultura Editores
Associados, 1999.
Profª Ariane Scarelli FPD 58
similares. Estas permaneceram isoladas em sistemas diferentes, de forma fragmentada,
impedindo que fossem transformadas em informações que subsidiassem aqueles
órgãos na tomada de alguma ação preventiva.
Governos, empresas e cidadãos nunca tiveram tantas ferramentas para
encontrar e disseminar informações como agora. O perigo é que elas tornam mais difícil
distinguir o importante do banal.
Reuters
"No campo da inteligência artificial, as pessoas passam suas vidas tentando conquistar
avanços de alguns centímetros. O que o Watson faz e já provou é desenvolver uma
capacidade de avançar o estudo da inteligência artificial na escala dos quilômetros",
afirmou.
30
Disponível em: < http://info.abril.com.br/noticias/ti/ibm-se-prepara-para-duelo-entre-homem-e-maquina-14012011-15.shl>.
Acesso em 24/01/2011.
Profª Ariane Scarelli FPD 60
Também demonstra que a IBM, que chega aos 100 anos em 2011, deseja se manter na
vanguarda da tecnologia, ainda que companhias como Google e Apple se tenham
tornado as líderes do setor em termos de popularidade.
A IBM diz que a capacidade de compreender a linguagem humana faz do Watson uma
máquina muito mais desenvolvida que o Deep Blue, o supercomputador da empresa que
derrotou o campeão mundial de xadrez Garry Kasparov em uma série de partidas em
1997.
O maior desafio para os cientistas da IBM foi o de ensinar o Watson a distinguir entre expressões literais
e metafóricas, e a compreender trocadilhos e gírias.
Alimentá-lo com conhecimento é fácil. O Watson não está conectado à Internet, mas dispõe de um banco
de dados que cobre ampla gama de tópicos, entre os quais história e entretenimento.
"O filme Gigi deu a ele a canção tema, ´Thank Heaven for Little Girls´", perguntou o apresentador Alex
Trebek. "Quem é Maurice Chevalier", respondeu o computador.
A máquina, que combina computadores Power7 da IBM do tamanho de refrigeradores, é muito grande
para caber no estúdio do programa e estava conectada remotamente.
Watson respondeu corretamente questões sobre Agatha Christie e a cidade de Jericó. A máquina venceu
a primeira parte do teste, ganhando 4.400 dólares, enquanto Ken Jennings, que venceu 74 vezes seguidas
durante a temporada de 2004 e 2005 do programa, ficou com 3.400 dólares. Brad Rutter, que já acumula
ganhos de 3,3 milhões de dólares no programa, ficou em último.
Uma vitória no show de verdade, que irá ao ar em 14, 15 e 16 de fevereiro, será um triunfo para a IBM,
que investiu cerca de 6 bilhões de dólares no ano passado em pesquisa e desenvolvimento.
Uma parte desse investimento, não informada pela empresa, foi para o que a companhia chama de
"grandes desafios" ou enormes projetos científicos de vários anos como o Watson e Deep Blue.
Apesar de Watson poder não se tornar um projeto comercial no curto prazo, executivos da IBM afirmam
que suas capacidades linguísticas e analíticas podem eventualmente ajudar a companhia a desenvolver
novos produtos em áreas como medicina diagnóstica.
Entretanto, Jennings, acredita que Watson pode ser vencido na competição de verdade. "Watson está
sujeito a erros", disse ele.
Rutter concordou, citando a fraqueza da máquina em compreender humor, uma parte importante de
algumas perguntas.
Em uma pergunta sobre o ator e músico Jamie Foxx, que aprendeu a tocar violoncelo, Watson deu como
resposta "quem é Beethoven?"
Da Redação*
Segundo a agência de telecomunicações da ONU, no fim de 2010, 2,08 bilhões de pessoas tinham
acessado a rede.
O número de usuários da internet alcançou, no fim de 2010, a marca de 2 bilhões de usuários, disse
Hamadoun Toure, responsável pela agência de telecomunicações da ONU (Organização das Nações
Unidas), nesta quarta-feira (26).
De acordo com a agência, nos últimos dias do ano, o número estimado de internautas era de 2,08
bilhões. Na mesma data, em 2009, o número de pessoas que acessaram a internet no mundo era de 1,86
bilhão. Com essa marca, e considerando que a população mundial é de 6,8 bilhões, é possível dizer que
quase uma pessoa a cada três do mundo já navegou na rede. Da grande massa de internautas que
acessou a web em 2010, 57% são de países em desenvolvimento.
No que diz respeito a assinatura de banda larga fixa no mundo, o índice já ultrapassou a faixa do meio
bilhão de usuários. No fim de 2010, a ONU contabilizou 555 milhões de usuários. Já o número de banda
larga móvel foi bem maior: 940 milhões.
O maior crescimento no número de pessoas que acessam à internet ocorreu na Ásia e no Pacífico
somando mais de 100 milhões de usuários. Ao todo, a região contabilizou 857 milhões – grande parte
dessa quantia deve-se à população da China que usa a rede.
31
Disponível em: <http://tecnologia.uol.com.br/ultimas-noticias/redacao/2011/01/26/internet-alcanca-marca-de-2-bilhoes-de-
usuarios-diz-onu.jhtm>. Acesso em 01/02/2011.
Profª Ariane Scarelli FPD 62
No entanto, a maior densidade de acesso ainda é na Europa, seguida pelas Américas, nos países que
faziam parte da república soviética e países árabes. Essas duas últimas regiões têm apresentado
crescimento constante. Só nos países árabes, por exemplo, dobrou o número de internautas em cinco
anos. Hoje estima-se que há 88 milhões.
Telefonia
O número contabilizado pelo órgão da ONU é de 5,28 bilhões de assinaturas no mundo no fim do ano
passado, comparado a 4,66 bilhões de 2009. “A grande alta do número de assinaturas de telefonia móvel
está diminuindo e nós não teremos mais crescimentos na casa dos dois dígitos”, disse Susan Teltscher,
chefe de informações de mercado e estatística do ITU – órgão da ONU da área de telecomunicações.
As linhas fixas têm apresentado queda nos últimos quatro anos. Atualmente, no mundo, estima a ONU,
há 1,2 bilhão de assinaturas.
Todos nós estamos cansados de ouvir o quanto escrever um bom código é essencial
para o desenvolvimento de qualquer projeto, e que caso não sigamos essa linha de
pensamento teremos os ruins e velhos problemas conhecidos, como por exemplo:
Problemas com a leitura do código: um código mal escrito o torna ilegível, fazendo
com que o próprio desenvolvedor que o escreve, caso volte a ler aquele trecho
algum tempo depois, corre o risco de não entender o que ele mesmo havia escrito.
Problemas com manutenibilidade: um código ilegível consequentemente dificulta
a manutenção e extensão das funcionalidades do sistema, fazendo com que esse
processo seja complicado e desgastante para o programador que venha a
executá-lo.
Levar mais tempo para fazer manutenção significa que você gastará mais dinheiro para
estender ou corrigir pequenas funcionalidades, e gastar dinheiro além do previsto é uma
das coisas que nenhum gerente de projetos gosta.
Sendo assim, como podemos codificar de modo que tenhamos um código limpo, legível
e produtivo?
Escolher bons nomes para suas variáveis, nomes significativos e que estejam de
acordo com o contexto empregado são tão importantes quanto todo o código
escrito. Dar bons nomes as suas variáveis faz com que todos que leiam seu
código compreendam o real motivo dela estar sendo utilizada, facilitando a leitura
e compreensão do código.
Uma função deve fazer apenas UMA coisa, leia isso novamente! Uma função
que desempenha mais de uma tarefa torna ainda mais complexa a sua
compreensão e se transforma em uma função “bombril”, um pedacinho de código
com mil e uma utilidades, o que na hora da manutenção se tornará em um
monstro de 7 cabeças, ou dependendo do código escrito 7^7 cabeças.
Dar bons nomes a funções é tão importante quanto dar bons nomes a variáveis,
os nomes dados a funções devem expressar literalmente o que elas fazem de
modo que um programador não precise ler o código inteiro de uma função para
entender o que ela faz. Um problema ainda muito encontrado são funções em
que seu nome não possuí nenhuma relação com o código que descreve o seu
verdadeiro comportamento, o que irá confundir o desenvolvedor que usar está
função pois ele perceberá que o que ela promete cumprir não condiz com o que
ela de fato faz.
A melhor forma de darmos bons nomes a funções e variáveis é fazermos uma
análise do domínio do problema que estamos tentando solucionar, assim
podemos extrair boa parte dos nomes que representam de fato os elementos que
usaremos para solucionarmos o problema.
Ainda falando sobre funções um outro aspecto muito importante é o seu tamanho,
funções não devem ser grandes demais e caso sejam isso é um sinal de que algo
está errado. Não podemos definir exatamente o que é um tamanho bom ou o que
é um sinal de que temos um problema à vista, antigamente programadores
consideravam o tamanho da tela uma boa métrica para o tamanho de funções
porém hoje em dia temos diversos tamanhos de monitores, o que faz com que
essa não seja a maneira correta de medirmos o tamanho de uma função.
Podemos considerar uma função de tamanho ideal quando a sua quantidade de
linhas está na faixa de 15 a 20 linhas, o que é suficiente para desempenhar
apenas uma atividade, mas é claro que em alguns momentos isso pode variar
para mais ou para menos dependendo do contexto que a qual função pertence
fazendo com que tenhamos que usar o bom senso.
Recomendo como leitura sobre boas práticas e como escrever um bom código o livro
“Código Limpo” de Robert C. Martin, este livro trata a fundo estes pontos e muitos outros
considerados indispensáveis para que possamos obter um código bem escrito e
funcional.
Até a próxima!
@marvinferreira
33
Revista Veja, Ed. 2252 de 18/01/2012, Vida Digital, p. 92-94.
Profª Ariane Scarelli FPD 67
Profª Ariane Scarelli FPD 68
Profª Ariane Scarelli FPD 69
ANEXO H – Cientistas criam o menor transistor do mundo: um átomo
Especialistas já haviam previsto que os transistores chegariam ao tamanho de um átomo até 2020. A
previsão vai de acordo com a Lei de Moore. Ela diz que o número de componentes na mesma placa de
silício dobra a cada 18 meses. Atualmente, os menores transistores do mundo podem chegar a 22
nanômetros. Um nanômetro equivale a um milímetro dividido por um milhão.
34
Disponível em: <http://veja.abril.com.br/noticia/ciencia/cientistas-criam-o-menor-transistor-do-mundo-um-atomo>. Acesso em:
20 fev. 2012.
Profª Ariane Scarelli FPD 70
ANEXO I – Tablets e notebooks chegam mais perto de extinguir PC de mesa
Carreira em TI: Bons salários dependem do empenho dos profissionais (Rich Yasick )
O acelerado avanço tecnológico nas últimas duas décadas trouxe inumeráveis vantagens para bilhões
de pessoas e empresas em todo o mundo. É impossível não reconhecer os benefícios de controlar
gastos no computador pessoal, pagar contas via internet confortavelmente sentado no sofá e usar o
celular em trânsito para falar com alguém em (quase) qualquer parte do planeta. Por trás de todos esses
serviços, há um exército que dá duro para garantir que os bits circulem corretamente de um lado para
outro: são os profissionais de tecnologia da informação – ou simplesmente TI. E eles também têm se
beneficiado com o vertiginoso avanço. Levantamento inédito feito pelo Catho Online, serviço que reúne
ofertas de empregos e currículos, revela que, só no último ano, os salários de TI no Brasil cresceram em
média 10,78% – 60% acima da inflação. Em algumas especialidades, como programação, a alta chega
a impressionantes 38%.
O estudo ouviu 260.000 profissionais – pouco mais de um quinto das 1,2 milhão de pessoas que atuam
na área no Brasil. Entram no cálculo funcionários de empresas com níveis variados de experiência e
tempo de serviço, além de consultores. Foram rastreados os vencimentos de profissionais que atuam
nas cinco regiões do país, divididos em 15 subáreas de TI, cada uma delas subdividida em níveis
hierárquicos de gerência, coordenação e desenvolvimento (profissional júnior, pleno ou sênior). Dessa
forma, foram consideradas 48 diferentes funções, o que revelou o bom momento: em 41 delas, a média
salarial subiu no último ano. Confira abaixo a média salarial de uma das áreas de TI nas cinco regiões
do Brasil, segundo dados coletados em janeiro.
"A tecnologia está presente em todos os setores da economia moderna. Isso vem colaborando para o
crescimento dos salários e para a maior penetração das empresas em diversas regiões do país", afirma
35
Revista Veja – Carreiras. 01 mar. 2012.
Profª Ariane Scarelli FPD 74
Sergio Sgobbi, diretor de educação e recursos humanos da Associação Brasileira de Empresas de
Tecnologia da Informação e Comunicação (Brasscom). O Brasil já pode ser considerada uma potência
regional de TI. Em 2011, o mercado brasileiro de tecnologia da informação movimentou 11 bilhões de
dólares, segundo dados da consultoria Frost & Sullivan, um crescimento de 11,5% em relação ao ano
anterior. Com os números, o país já responde por metade do mercado de tecnologia da América Latina.
Os dados animadores da Catho corroboram outro estudo, que analisou a tendência dos vencimentos do
setor até 2014. O levantamento – parceria entre a Brasscom e o Cadastro Geral de Empregados e
Desempregados (Caged) – concluiu que os salários de entrada, pagos a quem começa na área,
deverão receber um incremento de cerca de 18% até 2014. O estudo mostrou também que, em outubro
de 2011, os novatos receberam 1.977 reais nos estados de São Paulo, Rio de Janeiro, Bahia, Minas
Gerais, Paraná, Pernambuco, Rio Grande do Sul e também no Distrito Federal – identificados como
polos de tecnologia. O valor é 31,89% superior à média salarial brasileira, de 1.499 reais.
É o segmento que cuida de todas as informações eletrônicas armazenadas por uma empresa. No caso
de instituições financeiras, por exemplo, esses dados incluem nomes de clientes e até valores de
transações monetárias efetuadas por grandes corporações.
Sim, é um ótimo momento para quem já está na área e uma grande oportunidade para quem quer entrar
nela. Apesar de tantos atrativos, o curioso é que, ao lado do aquecimento do mercado, o déficit de mão
Profª Ariane Scarelli FPD 75
de obra é apontado como razão da elevação dos salários. Estima-se que haja 115.000 vagas não
preenchidas à espera de profissionais qualificados. Até 2025, o número pode chegar a 500.000 postos
de trabalho, segundo estimativas do Sindicato dos Trabalhadores em Processamento de Dados e
Tecnologia da Informação do Estado de São Paulo (Sindpd). "As empresas estão percebendo a
necessidade de remunerar melhor seus funcionários. Aquelas que não seguirem a tendência, serão
obrigadas a aprender a operara sem eles", afirma Antonio Neto, presidente do Sindpd.
Profissionais em alta
Fernando Galdino,
especialista de banco de dados
"No ano passado, notei um aumento de 7% no meu salário. Hoje, a área de paga bem, tanto nas capitais quanto no
interior do país"
Os bons ventos que sopram na área de TI não levarão todos os interessados ao mar da prosperidade.
Se, por um lado, não há regulamentação profissional no setor – o que dispensa a necessidade de
apresentação de um diploma –, por outro, as demandas a que são submetidos os profissionais mudam
tão rapidamente quanto a tecnologia. Se há apenas dois anos os microprocessadores de dois núcleos
(dual-core) desafiavam e encantavam os profissionais que atuam na área, atualmente o foco de atenção
são os chips com quatro núcleos (quad-core), muito mais rápidos e potentes.
"O Brasil conta com bons profissionais no mercado", diz Shuji Shimada, diretor da People Consulting,
empresa especializada em recrutamento na área de TI. "Contudo, num cenário de grandes mudanças e
crescimento acelerado, cresce exponencialmente a exigência de atualização."
Na área de TI isso significa uma sólida formação técnica aliada à aquisição praticamente constante de
certificados específicos. Eles atestam que um profissional domina determinada tecnologia e está apto a
lidar com ela diariamente. É uma exigência do mercado e das empresas empregadoras. O caminho não
é fácil, mas, como mostram os indicadores da área, é recompensador. "A tecnologia da informação é
base para tudo, não há processo sem apoio tecnológico", diz Shimada.
Fique por dentro dos Ultrabooks e dos notebooks e saiba qual dessas máquinas é a melhor para você.
(Artigo atualizado em 29/01/2014)
Primeiro, vieram os notebooks. Depois, surgiu sua versão em miniatura e com uma configuração mais
básica, os chamados netbooks. Não demorou muito tempo para os tablets também tomarem conta do
mercado. Mas, como a tecnologia não para de inovar, outro tipo de tecnologia portátil invadiu o
mercado: os Ultrabooks.
À primeira vista, talvez você não perceba a diferença entre essa categoria e seus antecessores. Mas é
bom ficar atento porque os Ultrabooks contam com algumas características específicas e também
várias vantagens.
Desde 2011, a Intel determina as regras específicas que caracterizam um Ultrabook (que é sempre um
tipo de notebook Intel ), e que acompanham a popularização e a evolução tecnológica dos aparelhos.
Com o avanço constante da tecnologia, a Intel atualiza alguns critérios sobre a configuração
dos Ultrabooks a cada geração.
Anteriormente, um Ultrabook precisava ter, por exemplo, 5 horas ou mais de autonomia de bateria e
armazenamento SSD. Além disso, o processador deveria ser Intel, a partir da segunda geração (Sandy
Bridge). Conclusão: notebook leve, com boa autonomia e bom processamento.
36
Disponível em:< http://www.zoom.com.br/notebook/deumzoom/quais-as-diferencas-entre-notebook-e-ultrabook>.
Acesso em: 06 fev. 2014.
Tablets x Ultrabook
No geral, o Ultrabook reúne algumas características de tablets , como design mais fino, alta velocidade
de resposta e navegação, além de ligar e desligar mais rapidamente.
Apesar dessa possibilidade de ficar pronto para usar em pouco tempo já ser encontrada em alguns
notebooks com SSD, ele é uma referência na configuração dos Ultrabooks. Aliás, outra regra dos
Ultrabooks mais modernos: devem sair do modo de Hibernação em, no máximo, 3 segundos.
A aproximação entre os Ultrabooks e os tablets é cada vez maior, tanto que um Ultrabook
touchscreen é outra das novas exigências. Inclusive, a Intel incentiva a fabricação dos modelos
chamados de Ultrabook conversível, que podem ser usados como um notebook ou como um tablet.
Outro fator importante dos Ultrabooks é a autonomia da bateria, ou seja, quanto tempo ele funciona
sem precisar ser ligado na tomada. Nas primeiras gerações, esse tempo era de 5 horas. Agora, segundo
a Intel, os Ultrabooks precisam garantir 6 horas de reprodução de vídeo em Full HD, 9 horas com o
Windows “parado” (note ligado, sem usar, antes de entrar em stand by) e 7 dias em stand by (quando o
note para de processar, mas não desliga completamente).
Com a evolução das formas de integração e transferência de arquivos entre equipamentos, esse ponto
não poderia ser deixado de fora. Os Ultrabooks devem ter tecnologia Wi-Fi que transmite vídeos do
note em TVs compatíveis, sem uso de fios, parecido com o DLNA.
Mais um diferencial dos Ultrabooks, e que também está presente em alguns notebooks, é o
armazenamento SSD. O SSD é um tipo de “HD” baseado em memória flash, que funciona em alta
velocidade e já está por aí em pen drives e cartões de memória.
É possível encontrar modelos com capacidade de até 512GB de SSD, mas a maioria fica
entre Ultrabooks 32GB SSD (que serve mais para dar velocidade nas tarefas como ligar, desligar e abrir
programas) e Ultrabooks 128GB SSD , tanto em modelos de notebooks, quanto Ultrabooks.
Um detalhe do armazenamento SSD é que ele ocupa menos espaço físico e é mais resistente a quedas
e choques que o HD (Hard Disk) convencional. Por outro lado, é uma das características que encarecem
Os Ultrabooks tinham a fama de “ultracaros”, pois costumavam custar bem mais do que notebooks com
boa configuração. Mas isso também mudou, pois é bem possível encontrar modelos de Ultrabooks que
se equiparam aos notes, no preço e na configuração.
Claro que a época de lançamento de cada equipamento também deve ser considerada, por exemplo,
um notebook lançado recentemente pode ser mais potente e mais caro do que um Ultrabook lançado
há cinco anos.
Então, se você quer um aparelho fácil de carregar e com bateria pronta para funcionar por longos
períodos de tempo, o mais provável é que encontre um modelo de Ultrabook que vá te atender,
principalmente porque essas novas configurações exigidas pela Intel garantem que você irá comprar um
aparelho top de linha.
O DOCUMENTO ORIGINAL
Uma curiosidade é que os computadores NeXT eram fruto de uma empresa de mesmo
nome criada por Steve Jobs no período em que ele esteve afastado da Apple. O
propósito da NeXT era justamente criar computadores que atendessem a comunidade
acadêmica. Mais tarde, boa parte do sistema operacional que comandava os
computadores NeXT foi convertida no Mac OS, sistema operacional que viria a equipar
os computadores da Apple.
25 ANOS DEPOIS
Getty Images
5150 PC, criado pela IBM, inaugurou era dos PCs
No início dos anos 1980, computador era coisa de nerd. Empresas como Apple, Osborne
e MITS (do Altair) já fabricavam computadores pessoais. Mas os equipamentos eram
difíceis de usar e tinha utilidade limitada.
Isso mudou em 12 de agosto de 1981, quando a poderosa IBM lançou seu primeiro
computador voltado para o usuário final: o IBM PC 5150. Com preço de US$ 1.565, ele
era o modelo mais barato lançado pela empresa e era voltado tanto para escritórios
como para uso doméstico.
38
Disponível em: <http://tecnologia.ig.com.br/2014-08-12/computador-pessoal-faz-33-anos-conheca-a-historia-do-ibm-pc.html>.
Acesso em 6 fev. 2017.
Profª Ariane Scarelli FPD 83
companhias de grande porte, a IBM trouxe credibilidade ao mercado e foi fundamental
para popularizar o computador como ferramenta de trabalho e lazer.
As especificações do 5150 eram poderosas para a época, mas hoje em dia seriam
amplamente superadas pelo celular mais barato. O computador tinha apenas 16 KB de
memória RAM. Para efeito de comparação, smartphones avançados de hoje podem ter
até 3 GB de RAM, mais de 187 mil vezes o valor do IBM PC. A memória de disco rígido
era de apenas 40 KB. Atualmente, qualquer notebook vem com pelo menos 500 GB,
mais de 12 milhões de vezes mais do que o PC da IBM.
Entretanto, como nenhuma parte vital do 5150 era exclusiva da IBM, ficou fácil para
outras empresas copiarem o design do produto e criarem PCs mais baratos, com as
mesmas especificações.
A segunda empresa foi a Microsoft. A IBM precisava de um sistema para seu PC e Bill
Gates forneceu a solução, com uma versão do DOS para o IBM PC. Como o sistema não
era exclusivo, a Microsoft passou a vendê-lo também para as concorrentes da IBM e
rapidamente se tornou a maior produtora de software do mundo. Foi o início da
Profª Ariane Scarelli FPD 92
parceria "Wintel" (Windows + Intel), que até hoje domina a computação pessoal em
todo o mundo.
Ironicamente, nove anos depois, a Lenovo passou a ser a maior fabricante de PCs do
mundo. A empresa chinesa desbancou a HP, que havia superado a IBM em 1994 e por
quase 20 anos havia liderado a lista. Atualmente, de acordo com os dados mais
recentes do IDC, a Lenovo lidera o mercado de PCs com fatia de 19,6%, seguida por HP
(18,3%), Dell (14%), Acer (8,2%) e Asus (6,2%).
Entendendo os SSDs39
Carlos E. Morimoto (4/out/2011)
Introdução
Os SSDs ou "Solid State Disks" (discos de estado sólido) são possivelmente a maior revolução dentro
do ramo dos HDs desde o IBM 350, já que eles utilizam um princípio de armazenamento completamente
diferente, com os discos magnéticos dando lugar aos chips de memória Flash:
A vantagem óbvia dos SSDs é que eles oferecem tempos de acesso muito baixos, combinados com
excelentes taxas de leitura e gravação em setores aleatórios, onde mesmo os melhores HDs
magnéticos oferecem apenas alguns poucos MB/s. Isso melhora o desempenho consideravelmente em
uma grande gama de aplicativos e reduz bastante o tempo de boot, tornando o sistema muito mais
responsível.
Os SSDs também oferecem um consumo elétrico mais baixo (o que os tornam um componente atrativo
especialmente para os notebooks), são silenciosos, resistentes a impactos e oferecem uma melhor
segurança contra perda de dados devido a defeitos de hardware, já que não possuem partes móveis.
A grande desvantagem por outro lado é o custo por megabyte, já que em vez de combinar 4 discos
magnéticos de 500 GB cada um para criar um HD de 2 TB, você precisa juntar 20 chips de memória
39
Disponível em: <http://www.hardware.com.br/tutoriais/entendendo-ssd/>. Acesso em: 24/abr/2015.
Profª Ariane Scarelli FPD 94
Flash de 8 GB cada para criar um SSD de apenas 160 GB. Quanto mais gigabytes, mais chips, o que
leva os preços dos drives de maior capacidade para as alturas.
Os primeiros SSDs para uso doméstico começaram a chegar ao mercado em 2007, mas por serem
muito caros (pense em US$ 500 por um SSD de 32 GB) eles receberam pouca atenção. Apenas
recentemente (final de 2009) os SSDs começaram a chegar com mais força, liderados pela série X25 da
Intel e modelos da Kingston, Corsair, OCZ, Super Talent e outros fabricantes menores, que se
especializaram em vender versões OEM de drives da Samsung, Indilinx ou até mesmo da Intel.
A grande maioria dos SSDs domésticos utilizam módulos de memória Flash MLC, assim como nos
cartões e pendrives. Entretanto, eles oferecem um diferencial importante, que é o uso de múltiplos
canais de acesso. Isso permite que o controlador acesse vários chips simultaneamente, dividindo os
arquivos em pequenos blocos que podem ser divididos entre os chips e depois lidos simultaneamente,
de maneira muito similar ao que temos em um sistema RAID.
A maioria dos drives atuais utilizam 10 ou 20 chips de memória Flash (o que permite que os fabricantes
produzam drives de baixa e alta capacidade usando as mesmas placas) e 10 canais de acesso
simultâneo. Um bom exemplo é o Intel X25-M G2, que usa 10 chips na versão de 160 GB e 20 chips na
versão de 320 GB (com os mesmos 10 canais de acesso em ambos os casos).
Ao escrever um arquivo de 4 MB, por exemplo, o controlador o dividirá em 10 blocos de 400 KB cada
um, que serão escritos simultaneamente em 10 chips diferentes, ocupando um total de 100 páginas de 4
KB em cada um. Ao ler o arquivo posteriormente, a leitura é novamente dividida entre os 10 chips, o que
multiplica tanto a taxa de escrita quanto a de leitura, sem que exista penalidade com relação aos tempos
de acesso.
Em situações em que a controladora dispõe de um volume suficiente de blocos limpos (veja mais
detalhes a seguir) um SSD de segunda geração como o Intel X25-M G2 pode atingir facilmente 250
MB/s de taxa de leitura sequencial e 80 MB/s de escrita sequencial (muitos drives atingem os 160 MB/s),
se aproximando dos 300 MB/s teóricos do SATA-300.
Entretanto, é nas operações de leitura e escrita em setores aleatórios que a diferença se torna mais
marcante. Enquanto um HD magnético de 7200 RPM não é capaz de manter mais do que 800 ou 1000
KB/s de escrita ao gravar arquivos de 4 KB em setores aleatórios, um bom SSD é capaz de ultrapassar
facilmente os 20 MB/s (o X25-M G2 é capaz de manter de 36 a 40 MB/s de acordo com o volume de
requisições simultâneas), o que acaba representando uma diferença muito grande em situações reais de
uso.
Diferentemente da memória RAM e também das SRAM, a memória Flash permite armazenar dados por
longos períodos, sem precisar de alimentação elétrica. Este simples fato acabou fazendo com que a
memória Flash se tornasse uma das tecnologias mais importantes das últimas décadas, possibilitando o
surgimento dos cartões de memória, pendrives, SSDs, celulares, câmeras e players de mídia com
armazenamento interno e assim por diante.
Se a memória Flash não existisse, todas essas áreas estariam muito atrasadas em relação ao que
temos hoje. Os celulares e os palmtops provavelmente ainda utilizariam memória SRAM para armazenar
os dados e seriam por isso mais caros e perderiam os dados quando a bateria fosse removida. Os
pendrives simplesmente não existiriam e os cartões de memória estariam estagnados nos cartões
CompactFlash, utilizando microdrives ou chips de memória SRAM alimentados por uma pequena
bateria. Formatos mais compactos, como os cartões SD e miniSD simplesmente não existiriam.
As células de memória Flash são bastante similares a um transistor MOSFET, construídas sobre um
wafer de silício (o substrato). A grande diferença é que a célula utiliza dois gates em vez de um. O
primeiro é o "control gate", que é usado para ativar a célula e fazer a leitura dos dados armazenados.
Os dados propriamente ditos são armazenados no segundo, o "floating gate", que é precisamente
construído entre duas camadas de óxido de silício (oxide layer). O termo "floating" indica justamente o
As camadas de dióxido de silício armazenam cargas negativas, o que cria uma espécie de armadilha de
elétrons, que impede a saída de qualquer carga armazenada no floating gate, um arranjo que permite
manter os dados por longos períodos de tempo, sem que seja necessário manter a alimentação elétrica
(como nas memórias SRAM), ou muito menos fazer um refresh periódico (como na memória DRAM).
Isso simplifica muito o design dos cartões, pendrives e outros dispositivos, pois eles precisam incluir
apenas os chips de memória Flash, um chip controlador e as trilhas necessárias, sem necessidade de
baterias ou de circuitos de refresh.
Os dados são gravados na célula através de um processo de programação, que consiste em ativar o
transistor (a corrente flui do emissor para o coletor) e, simultaneamente, aplicar uma tensão mais alta
(12 volts ou mais) no control gate. A alta tensão faz com que alguns dos elétrons sejam "sugados" para
dentro do floating gate, onde ficam presos devido às duas camadas de óxido de silício. Uma vez que a
célula é programada, os dados podem ser lidos inúmeras vezes, sem que seja necessário regravar os
dados.
Para modificar os dados gravados é necessário primeiro limpar o conteúdo das células, o que é feito
aplicando uma tensão diferencial entre o emissor e o control gate. Isso remove qualquer carga
armazenada no floating gate, fazendo com que a célula retorne ao estado original e possa ser
programada novamente. Todo chip de memória Flash suporta um número finito de operações de escrita
(de 10.000 a 100.000) mas suporta um número quase ilimitado de operações de leitura.
Continuando, nem todos os chips de memória Flash nascem iguais. Embora a função seja sempre a
mesma (armazenar dados), existem diferenças nas tecnologias usadas, que determinam onde o chip
será usado.
Existem dois tipos de memória Flash. A primeira tecnologia de memória Flash a se popularizar foi o
tipo NOR, que chegou ao mercado em 1988. Os chips de memória Flash NOR possuem uma interface
Profª Ariane Scarelli FPD 97
de endereços similar à da memória RAM, incluindo o suporte ao XiP (eXecute in Place), que permite que
softwares armazenados no chip de memória Flash sejam executados diretamente, sem precisarem ser
primeiro copiados para a memória RAM.
Isso permite que eles sejam usados para armazenar o BIOS da placa-mãe e firmwares em dispositivos
diversos, que antes eram armazenados em chips de memória ROM ou EEPROM. Nos primeiros PCs,
por exemplo, o BIOS da placa-mãe era gravado em um chip de memória ROM e por isso não era
atualizável, a menos que o chip fosse fisicamente substituído.
O problema com as memórias NOR é que elas são muito caras e, embora as leituras sejam rápidas, o
tempo de gravação das células é muito alto. Em um chip de memória NOR típico, as operações de
gravação demoram cerca de 750 nanosegundos, o que é várias ordens de magnitude mais lento do que
em um chip de memória RAM.
No caso do BIOS da placa-mãe, isso não é um grande problema, pois você só precisa atualizá-lo
esporadicamente, mas os chips de memória Flash NOR não seriam muito adequados para uso em um
SSD, por exemplo.
Chips de memória Flash NOR de acesso serial, como os usados para gravar o BIOS em placas-mãe
atuais
As memórias NOR chegaram a ser utilizadas em muitos palmtops e smartphones (até por volta de 2006)
para armazenar o firmware do sistema, mas nesse caso ela era usada apenas para leitura, com todas
as operações de escrita sendo feitas em um chip de memória SRAM ou Flash NAND separado. A
vantagem nesse caso é que o boot era um pouco mais rápido, já que o sistema podia rodar diretamente
De volta aos PCs, as memórias Flash NOR chegaram a ser utilizadas nos primeiros cartões de memória
PCMCIA e CompactFlash, mas elas desapareceram desse ramo quando foram introduzidas as
memórias NAND, que rapidamente se tornaram as mais populares.
Além de mais baratas que as NOR, as memórias NAND também são muito mais rápidas na hora de
gravar dados. A principal limitação é que elas são endereçadas usando páginas de 4 KB (ou 2 KB,
dependendo do design do chip) e acessadas através de um barramento serial. Ou seja, do ponto de
vista do sistema, um cartão de memória Flash NAND está mais para um HD do que para uma unidade
de memória. Você pode usá-lo para guardar dados, mas na hora que o sistema precisa rodar um
programa, precisa primeiro copiá-lo para a memória RAM, da mesma forma que faria ao usar um HD.
A partir de 2006, até mesmo os smartphones e palmtops passaram a utilizar chips de memória NAND
para armazenar o firmware e os aplicativos instalados, em vez de um chip separado de memória XOR.
Isso se tornou possível graças ao uso de sistema de execução dinâmica, onde os aplicativos são
primeiro copiados da memória Flash para a memória RAM e executados a partir dela. Esse esquema é
muito similar ao que temos num PC, onde os arquivos são salvos no HD, porém processados usando a
memória RAM.
O grande boom da memória Flash aconteceu entre 2004 e 2005, quando uma combinação de dois
fatores fez com que os preços por MB caíssem rapidamente.
O primeiro foi o brutal aumento na produção e a concorrência entre os fabricantes, que empurraram os
preços para baixo. Além de gigantes como a Samsung e a Toshiba, até mesmo a Intel e a AMD
investiram pesadamente na fabricação de memória Flash.
O segundo foi a introdução da tecnologia MLC (Mult-Level Cell), onde cada célula passa a armazenar
dois ou mais bits em vez de apenas um. Isso é possível graças ao uso de tensões intermediárias. Com 4
tensões diferentes, a célula pode armazenar 2 bits, com 8 pode armazenar 3 bits e assim por diante. Na
geração atual (2009) os chips armazenam apenas 2 bits, mas não deve demorar até que os fabricantes
desenvolvam células capazes de armazenar 3 e 4 bits, já que isso reduzirá proporcionalmente o custo
por megabyte.
O MLC foi implantado de forma mais ou menos simultânea pelos diversos fabricantes e permitiu reduzir
drasticamente o custo por megabyte, quase que de uma hora para a outra. Hoje em dia, os chips MLC
são os usados na esmagadora maioria dos pendrives, cartões de memória e SSDs.
Assim como em outras tecnologias, o uso do die-stacking inicialmente encarecia os chips, mas, com a
evolução das técnicas de produção, ele acabou resultando em redução de custos, já que boa parte do
preço de um chip de memória flash corresponde, justamente, ao processo de encapsulamento. Com
isso, acaba sendo bem mais barato produzir um único chip com 8 camadas, do que 8 chips separados,
por exemplo.
ARQUIVO PESSOAL
Débora e Felipe viajam pela Europa com os dois cachorros enquanto trabalham
O casal de publicitários Débora Corrano e Felipe Pacheco, ambos com 25 anos, deixou o emprego
em uma agência para trabalhar como autônomos e buscar mais qualidade de vida, mas acabaram
presos a uma rotina de longas horas no trânsito ao se deslocar entre um cliente e outro. A solução
foi trabalhar de casa e realizar reuniões por ferramentas de teleconferência como o Skype. “Tudo
começou a ser feito na esfera digital e percebemos que não faria diferença trabalhar da nossa casa
em Santana (na zona norte da capital) ou de Berlim”, diz Pacheco, que decidiu levar a ideia ao pé
da letra.
Junto com a namorada, Pacheco guardou dinheiro por um ano e no começo de 2014 mudou-se
com mala, cuia e dois cachorros para Berlim, aderindo ao movimento conhecido como Nômades
Digitais, formado por empreendedores e profissionais autônomos que uniram a vontade de viajar o
mundo com um trabalho que pode ser executado remotamente por meio da internet. “É uma
40
Disponível em: <http://blogs.estadao.com.br/link/nomades-digitais-trocam-rotina-por-vida-de-viagens-e-trabalho-online/>.
Acesso em: 11/dez/2015.
Profª Ariane Scarelli FPD 101
questão de liberdade. Você percebe que faz sentido ser nômade no momento em que enxerga que
gasta 4 horas do seu dia em deslocamentos para trabalhar em algo que talvez você não goste
tanto”, diz Débora, da casa onde atualmente vive com Pacheco e os dois cachorros em Córdoba,
na Espanha.
Depois de nove meses em Berlim, o casal passou uma temporada em Barcelona e migrou para
Córdoba antes de seguir até o próximo destino: Lisboa. Os nômades vivem assim: passam uma
temporada de algumas semanas ou meses em um país até migrarem para o próximo destino que
oferecer uma boa conexão Wi-Fi.
ARQUIVO PESSOAL
Débora e o namorado alugam carro nos países por onde passam para viajar com os dois cachorros
Ainda não há estatísticas sobre o nomadismo digital do mundo. Um dos principais marcos do
movimento é o livro Trabalhe 4 horas por semana, de Tim Ferris, publicado em 2007 e que se
debruça sobre as técnicas de como trabalhar online e por menos horas.
Há também centenas de ferramentas e blogs que abordam o dia a dia da vida de nômade e dão
dicas para quem deseja se unir ao movimento. Débora mantém com Pacheco o blog Pequenos
Monstros, que mostra a rotina de quem carrega a vida em uma mala e o emprego no laptop.
O nômade holandês Pieter Levels criou a Nomad List, que indica os melhores lugares para os
nômades viverem; o site “Remote | OK”, que lista trabalhos que podem ser realizados à distância; e
o canal #nomads, na ferramenta de bate-papo Slack. “A primeira coisa a fazer é descobrir como
ganhar dinheiro trabalhando online”, diz Débora, que faz questão de frisar que a vida de um
nômade digital não é tão fácil quanto parece. “Existe um movimento hoje que diz: ‘Largue tudo
agora e vá viajar’, e nós sempre dizemos: ‘Não, não largue seu emprego agora’, faça um
planejamento antes senão você ficará perdido”, diz ela.
É o que defende também a publicitária Fernanda Neute, de 34 anos, criadora do blog Fêliz com a
Vida, que tornou-se nômade digital há 2 anos por influência do namorado, o norte-americano Mark
Manson.
Sharon Eve Smith
“De 40 reuniões que eu fiz quando virei nômade, uma resultou em um cliente. Demorei quatro
meses para conseguir um trabalho e ralei muito, mesmo sendo uma profissional com boa
reputação e contatos no Brasil”, diz ela, que teve como primeiro destino a Tailândia e hoje está em
Nova York.
O principal desafio está em convencer as empresas nacionais de que dá para confiar em alguém
que está trabalhando do outro lado do mundo. Ao mesmo tempo, a rotina de nômade exige
organização. “As pessoas pensam que eu fico fazendo reunião por Skype da praia. Se você quer
ter uma carreira melhor, não tem essa de trabalhar 4 horas por dia e ficar na praia”, diz.
Para os nômades digitais o principal valor não está em ter uma vida fácil ou com menos trabalho,
mas um novo estilo de vida. “A tecnologia proporciona às pessoas a possibilidade de serem livres”,
diz Fernanda.
Estratégia
ARQUIVO PESSOAL
Marcus Lucas, de 31 anos, toca cinco negócios no mundo digital em meio a outros projetos
individuais. A maioria é baseada na venda de livros e treinamentos sobre empreendedorismo, que
garantiram recursos para ele viajar por oito países desde que se tornou nômade, em 2011. “Muitas
pessoas simplesmente guardam um montante para a viagem. Sugiro criar múltiplas fontes de renda
no Brasil para obter rendimentos mensais consistentes antes de viajar”, diz.
Ele recomenda ter um fundo de emergência de R$ 20 mil e uma renda mensal entre R$ 2 mil a R$
3 mil para se manter como nômade digital, valor que também faz parte da média recomendada por
outros adeptos do estilo de vida. “Em Chiang Mai (Tailândia) pagava R$ 500 de aluguel em um
condomínio com piscina”, diz.
O baixo custo de vida e a facilidade de visto são os fatores que tornam a Ásia um dos destinos
favoritos dos nômades digitais. “Muitas pessoas acreditam que ser nômade é não parar em
nenhum lugar, o que pode ser um tanto quanto equivocado”, diz Lucas. “A grande maioria dos
nômades fica no mínimo de um a dois meses em um país para ter maior imersão na cultura e firmar
laços de amizade com os locais”, diz ele, que planeja ficar por mais um ano na Tailândia, onde
mora atualmente, para aprender o idioma local e muay thai.
ARQUIVO PESSOAL
Há também quem depois de um tempo planeje estabelecer-se em um local. Fernanda quer voltar
ao Brasil. “Toda vez que volto a São Paulo o meu telefone começa a tocar (com propostas de
trabalho). A melhor parte de ser nômade é ter flexibilidade para estar onde é importante”, diz.
“Pretendo empreender e o lugar onde preciso estar agora é São Paulo.”
Já o casal Débora e Pacheco decidiu manter um apartamento alugado em Berlim para criar uma
base na Europa entre uma viagem e outra. Eles apostam que as experiências de vida farão a
diferença no currículo se voltarem ao Brasil. “Temos medo de fazer tudo errado, mas quem não
tem?”, questiona Pacheco.
MORADIA
Os nômades vivem em apartamentos alugados por temporada (como no Airbnb) ou em albergues.
Viajam com visto de turismo e a maioria vai para países da Ásia, onde o custo de vida é baixo e o
trânsito entre os países é mais fácil – na Europa, por exemplo, a permanência máxima para um
turista sem cidadania europeia é de três meses.
DINHEIRO
Como não param em um só país, os nômades costumam manter uma conta no Brasil e pagar as
despesas com cartão de crédito internacional. Cartões pré-pagos são a alternativa para saques em
dinheiro e muitos recebem pagamentos de clientes via PayPal.
TELEFONE
7 de dez de 2015
Eles trocam a rotina por viagens e trabalho on-line, como o casal de publicitários
Débora Corrano e Felipe Pacheco, que deixaram seus empregos para trabalhar como
autônomos a partir de casa, realizando reuniões pelo Skype. Ainda não há estatísticas
sobre o nomadismo digital do mundo, mas um dos principais marcos do movimento é
o livro Trabalhe 4 horas por semana, de Tim Ferris, publicado em 2007 e que se
debruça sobre as técnicas de como trabalhar online e por menos horas. (Leia mais
sobre isso no blog do Estadão).
Apesar de saber disso, às vezes me pego refletindo sobre modelos antigos que ainda
temos fortemente arraigados em nós e que impactam tanto e de tantas formas. A
maioria das organizações ainda está presa a esses modelos tradicionais de trabalho e
replica comportamentos, decisões, regras e atitudes que nem sempre são pensadas,
são apenas tomadas como a única forma de fazer algo e passadas adiante.
Vamos levar este assunto a uma outra estância e relacioná-lo, de fato, às novas
gerações. Sou professora universitária e toda vez que dou aula me sinto incomodada
por em pleno 2015 ainda estar diante do mesmo cenário que existe há décadas:
carteiras, alunos sentados um atrás do outro e um professor em pé na frente deles.
Preciso entender que meus alunos não são mais os mesmos de outra época. Fui pegar
a chave do laboratório dia desses e uma professora estava pedindo para bloquearem
tudo que pudessem na internet para que seus alunos prestassem atenção nela. Cada
um tem suas escolhas e respeito, mas eu não peço para bloquearem Facebook em sala
de aula e não dou bronca se estão olhando para o celular. Eu entendo plenamente que
não há como pedir para que eles se desconectem e olhem apenas pra mim. Eu estou
ciente de que eles podem aprender enquanto fazem outras coisas e não vou lutar
contra isso: é característica da geração deles ser multitarefas. E mais, eu estou lidando
com adultos, eles tem liberdade de me ouvir ou não, pagam a faculdade e podem
fazer escolhas.
Eu fui aluna até outro dia e me incomodava demais passar horas sentada olhando um
professor falar sem usar nada que pudesse deixar a aula mais atrativa. Eu aprenderia
melhor com imagens, com atividades que não tivessem respostas prontas e me
fizessem refletir, mas fui obrigada a fazer trabalhos e provas óbvios, cujas respostas
eu poderia encontrar na internet.
Ainda somos forçados a produzir e ter ideias incríveis enquanto olhamos para as
mesmas paredes de todos os dias. Escrevi um artigo sobre isso, falando sobre o fato
de as boas ideias não surgirem num momento eureka apenas ou sob pressão, mas nos
momentos mais livres e contemplativos. Um modelo de trabalho mais flexível
poderia contribuir com o fluir das boas ideias.
Mas isso não acontece porque o modelo tradicional reina e sequer se discute esta
alternativa, porque muitos gestores querem funcionários debaixo de seus narizes.
Uma pesquisa anual da Delloite chamada de "The Deloitte Millennial Survey 2015
- Mind the Gaps" relevou que as empresas deverão se concentrar em pessoas, não
apenas em produtos e lucros no século 21. As constatações deste inquérito mostram
que serão necessárias mudanças significativas para atrair e reter a futura força de
trabalho. As novas gerações não trabalham apenas por dinheiro, elas buscam outras
coisas. Foram entrevistados 7.800 de líderes de amanhã, de 29 países. Dentre os
insights, alguns deles chamam muita atenção. Setenta e cinco por cento da geração
Millennials ouvida apontou que as empresas estão focados em suas próprias agendas
em vez de ajudar a melhorar a sociedade, apenas 28% deles acreditam que a empresa
em que trabalham atualmente utiliza plenamente suas habilidades e mais da metade
(53%) querem tornar-se líderes ou executivos.
Dentre as barreiras para adotar modelos mais flexíveis, os respondentes disseram que
existem impeditivos legais e de dificuldades de gestão de culturas. Muitos deles estão
ligados à legislação e à complexividade da regulamentação do trabalho no Brasil.
Novas possibilidades
Os espaços de trabalho terão a cara de seus donos. Não necessariamente será mais um
escritório, mas o jardim, o café, locais de passagem, coworkings, salas de jogos, etc.
No Buscapé funcionários podem trabalhar deitados em redes. No LinkedIn, eles
podem escolher entre diversos espaços diferenciados e salas de reunião inspiradas em
São Paulo, como o ambiente que remete ao Parque Ibirapuera, muitas delas com
balanços ou sofás, não cadeiras e mesas tradicionais.
As próprias configurações desses lugares vai mudar, porque se não existirem mais
lugares fixos, os espaços serão rotativos. Essas práticas ajudarão a economizar. Um
case é a Philips, na qual 80% dos funcionários se dividem entre trabalho remoto e
presencial e na Cisco, onde dois terços trabalham remotamente.
Talvez você também goste de ler "As profissões que mais rapidamente serão
substituídas por máquinas, tecnologia ou inteligência artificial, pesquisa realizada
pelo Ibope.
Este é o futuro. E ele não está tão longe assim. E só pra constar, é lógico que
flexibilidade, horários diferenciados e trabalho remoto não se aplicam a todas as
áreas.
Leitura recomendada: Livro Trabalho Portátil, de André Brik e Marina Sell Brik, que
apresenta um modelo de programa de teletrabalho para empresas que desejam enviar
parte dos seus colaboradores para executar suas atividades remotamente e, com isso,
aproveitar todos os benefícios que esta modalidade oferece.
Flavia Gamonar
Professora Mestra em Mídia e Tecnologia pela Unesp e gerente de marketing.
Especialista em marketing de conteúdo e pesquisadora apaixonada de tendências
digitais, marketing, mídias sociais, inovação e empreendedorismo.
Neste texto, você verá o que é Big Data, entenderá o porquê de este nome estar cada vez mais
presente no vocabulário dos ambientes de Tecnologia da Informação (TI) e compreenderá os
motivos que levam o conceito a contribuir para o cotidiano de empresas, governos e demais
instituições.
De maneira mais simplista, a ideia também pode ser compreendida como a análise de grandes
quantidades de dados para a geração de resultados importantes que, em volumes menores,
dificilmente seriam alcançados.
42
Disponível em: <http://www.infowester.com/big-data.php>. Acesso em 04/fev/2016.
Profª Ariane Scarelli FPD 115
bancárias acontecem no mundo a cada segundo; soluções sofisticadas gerenciam a cadeia de
suprimentos de várias fábricas neste exato momento; operadoras registram a todo instante
chamadas e tráfego de dados do crescente número de linhas móveis no mundo todo; sistemas
de ERP coordenam os setores de inúmeras companhias. Enfim, exemplos não faltam - se te
perguntarem, você certamente será capaz de apontar outros sem fazer esforço.
Informação é poder, logo, se uma empresa souber como utilizar os dados que tem em mãos,
poderá entender como melhorar um produto, como criar uma estratégia de marketing mais
eficiente, como cortar gastos, como produzir mais em menos tempo, como evitar o desperdício de
recursos, como superar um concorrente, como disponibilizar serviços para a um cliente especial de
maneira satisfatória e assim por diante.
Perceba, estamos falando de fatores que podem inclusive ser decisivos para o futuro de uma
companhia. Mas, Big Data é um nome relativamente recente (ou, ao menos, começou a aparecer
na mídia recentemente). Isso significa que somente nos últimos anos é que as empresas
descobriram a necessidade de fazer melhor uso de seus grandes bancos de dados?
Pode ter certeza que não. Há tempos que departamentos de TI contemplam aplicações de Data
Mining, Business Intelligence e CRM (Customer Relationship Management), por exemplo, para
tratar justamente de análise de dados, tomadas de decisões e outros aspectos relacionados ao
negócio.
A proposta de uma solução de Big Data é a de oferecer uma abordagem ampla no tratamento do
aspecto cada vez mais "caótico" dos dados para tornar as referidas aplicações e todas as outras
mais eficientes e precisas. Para tanto, o conceito considera não somente grandes quantidades de
dados, a velocidade de análise e a disponibilização destes, como também a relação com e entre os
volumes.
Este panorama está longe de deixar de ser crescente. Basta imaginar, por exemplo, que vários
dispositivos em nossas casas - geladeiras, TVs, lavadoras de roupa, cafeteiras, entre outros -
deverão estar conectados à internet em um futuro não muito distante. Esta previsão está dentro do
que se conhece como Internet das Coisas.
Se olharmos para o que temos agora, já veremos uma grande mudança em relação às décadas
anteriores: tomando como base apenas a internet, pense na quantidade de dados que são gerados
diariamente somente nas redes sociais; repare na imensa quantidade de sites na Web; perceba
que você é capaz de fazer compras on-line por meio até do seu celular, quando o máximo de
informatização que as lojas tinham em um passado não muito distante eram sistemas isolados para
gerenciar os seus estabelecimentos físicos.
A quantidade de dados gerada e armazenada diariamente chegou a tal ponto que, hoje, uma
estrutura centralizada de processamento de dados já não faz mais sentido para a maioria absoluta
das grandes entidades. O Google, por exemplo, possui vários data centers para dar conta de suas
operações, mas trata todos de maneira integrada. Este "particionamento estrutural", é bom
destacar, não é uma barreira para o Big Data - em tempos de computação nas nuvens, nada mas
trivial.
Velocidade (velocity) é outro ponto que você já assimilou. Para dar conta de determinados
problemas, o tratamento dos dados (obtenção, gravação, atualização, enfim) deve ser feito em
tempo hábil - muitas vezes em tempo real. Se o tamanho do banco de dados for um fator limitante,
o negócio pode ser prejudicado: imagine, por exemplo, o transtorno que uma operadora de cartão
de crédito teria - e causaria - se demorasse horas para aprovar um transação de um cliente pelo
fato de o seu sistema de segurança não conseguir analisar rapidamente todos os dados que
podem indicar uma fraude.
Variedade (variety) é outro aspecto importante. Os volume de dados que temos hoje são
consequência também da diversidade de informações. Temos dados em formato estruturados, isto
é, armazenados em bancos como PostgreSQL e Oracle, e dados não estruturados oriundos de
inúmeras fontes, como documentos, imagens, áudios, vídeos e assim por diante. É necessário
saber tratar a variedade como parte de um todo - um tipo de dado pode ser inútil se não for
associado a outros.
O ponto de vista da veracidade (veracity) também pode ser considerado, pois não adianta muita
coisa lidar com a combinação "volume + velocidade + variedade" se houver dados não confiáveis.
É necessário que haja processos que garantam o máximo possível a consistência dos dados.
Voltando ao exemplo da operadora de cartão de crédito, imagine o problema que a empresa teria
se o seu sistema bloqueasse uma transação genuína por analisar dados não condizentes com a
realidade.
É claro que estes cinco aspectos não precisam ser tomados como a definição perfeita. Há quem
acredite, por exemplo, que a combinação "volume + velocidade + variedade" seja suficiente para
transmitir uma noção aceitável do Big Data. Sob esta óptica, os aspectos da veracidade e do valor
seriam desnecessários, porque já estão implícitos no negócio - qualquer entidade séria sabe que
precisa de dados consistentes; nenhuma entidade toma decisões e investe se não houver
expectativa de retorno.
O destaque para estes dois pontos talvez seja mesmo desnecessário por fazer referência ao que
parece óbvio. Por outro lado, a sua consideração pode ser relevante porque reforça os cuidados
necessários a estes aspectos: uma empresa pode estar analisando redes sociais para obter uma
De qualquer forma, os três primeiros 'Vs' - volume, velocidade e variedade - podem até não
oferecer a melhor definição do conceito, mas não estão longe de fazê-lo. Entende-se que Big Data
trata apenas de enormes quantidades de dados, todavia, você pode ter um volume não muito
grande, mas que ainda se encaixa no contexto por causa dos fatores velocidade e variedade.
O problema é que este conjunto de propriedades é por demais restritivo para uma solução de Big
Data. A elasticidade, por exemplo, pode ser inviabilizada pela atomicidade e pela consistência. É
neste ponto que entra em cena o conceito de NoSQL, denominação que muitos atribuem à
expressão em inglês "Not only SQL", que em tradução livre significa "Não apenas SQL"
(SQL - Structured Query Language - é, em poucas palavras, uma linguagem própria para se
trabalhar com bancos de dados relacionais).
Não é que bancos de dados relacionais tenham ficado ultrapassados - eles são e continuarão por
muito tempo sendo úteis a uma série de aplicações. O que acontece é que, geralmente, quanto
maior um banco de dados se torna, mais custoso e trabalhoso ele fica: é preciso otimizar,
acrescentar novos servidores, empregar mais especialistas em sua manutenção, enfim.
Via de regra, escalar (torná-lo maior) um bancos de dados NoSQL é mais fácil e menos custoso.
Isso é possível porque, além de contar com propriedades mais flexíveis, bancos do tipo já são
otimizados para trabalhar com processamento paralelo, distribuição global (vários data centers),
aumento imediato de sua capacidade e outros.
Além disso, há mais de uma categoria de banco de dados NoSQL, fazendo com que soluções do
tipo possam atender à grande variedade de dados que existe, tanto estrurados, quanto não
estruturados: bancos de dados orientados a documentos, bancos de dados chave/valor, bancos de
dados de grafos, enfim.
O que é Hadoop?
O Hadoop é uma plataforma open source desenvolvida especialmente para processamento e
análise de grandes volumes de dados, sejam eles estruturados ou não estruturados. O projeto é
Pode-se dizer que o projeto teve início em meados de 2003, quando o Google criou um modelo de
programação que distribui o processamento a ser realizado entre vários computadores para ajudar
o seu mecanismo de busca a ficar mais rápido e livre da necessidades de servidores poderosos (e
caros). Esta tecnologia recebeu o nome de MapReduce.
Alguns meses depois, o Google apresentou o Google File System (GFS), um *sistema de arquivos
especialmente preparado para lidar com processamento distribuído e, como não poderia deixar de
ser no caso de uma empresa como esta, grandes volumes de dados (em grandezas de terabytes
ou mesmo petabytes).
*Em poucas palavras, o sistema de arquivos é um conjunto de instruções que determina como os
dados devem ser guardados, acessados, copiados, alterados, nomeados, eliminados e assim por
diante.
Em 2004, uma implementação open source do GFS foi incorporada ao Nutch, um projeto de motor
de busca para a Web. O Nutch enfrentava problemas de escala - não conseguia lidar com um
volume grande de páginas - e a variação do GFS, que recebeu o nome Nutch Distributed
Filesystem (NDFS), se mostrou como uma solução. No ano seguinte, o Nutch já contava também
com uma implementação do MapReduce.
Na verdade, o Nutch fazia parte de um projeto maior: uma biblioteca para indexação de páginas
chamada Lucene. Os responsáveis por estes trabalhos logo viram que o que tinham em mãos
também poderia ser usado em aplicações diferentes das buscas na Web. Esta percepção motivou
a criação de outro projeto que engloba características do Nutch e do Lucene: o Hadoop, cuja
implementação do sistema de arquivos recebeu o nome de Hadoop Distributed File System
(HDFS).
O Hadoop é tido como uma solução adequada para Big Data por vários motivos:
- É um projeto open source, como já informado, fato que permite a sua modificação para fins de
customização e o torna suscetível a melhorias constantes graças à sua rede de colaboração. Por
causa desta característica, vários projetos derivados ou complementares foram - e ainda são -
criados;
- O Hadoop conta, por padrão, com recursos de tolerância a falhas, como replicação de dados;
É claro que o Hadoop pode ser usado em conjunto com bancos de dados NoSQL. A própria
Apache Foundation mantém uma solução do tipo que é uma espécie de subprojeto do Hadoop: o já
mencionado banco de dados HBase, que funciona atrelado ao HDFS.
A denominação Hadoop tem uma origem inusitada: este é o nome que o filho de Doug Cutting, principal
nome por
trás do projeto, deu ao seu elefante de pelúcia amarelo
O Hadoop, é bom frisar, é a opção de maior destaque, mas não é a única. É possível encontrar
outras soluções compatíveis com NoSQL ou que são baseadas em Massively Parallel
Processing (MPP), por exemplo.
Finalizando
Não podemos considerar as soluções de Big Data como um arsenal computacional perfeito:
sistemas do tipo são complexos, ainda desconhecidos por muitos gestores e profissionais de TI e a
sua própria definição ainda é passível de discussão.
O fato é que a ideia de Big Data reflete um cenário real: há, cada vez mais, volumes de dados
gigantescos e que, portanto, exigem uma abordagem capaz de aproveitá-los ao máximo. Apenas
para dar uma noção deste desafio, a IBM divulgou no final de 2012 que, de acordo com as suas
estimativas, 90% dos dados disponíveis no mundo foram gerados apenas nos dois anos anteriores.
Até o final de 2015, este volume todo terá aumentado pelo menos duas vezes. Diante deste ponto
de vista, é um tanto precipitado encarar a expressão "Big Data" como uma mero "termo da moda".
Para saber mais sobre o assunto, você pode consultar os links que serviram de referência para
este texto:
Abstract: In this article, we discuss the different concepts of the Internet of Things. The expression is uses
as synonym of connected ambients, ubicomp, machine-to-machine, web of things, future internet, smart
cities (Atzori et al, 2010; Kranenburg et al, 2011; Uckelmann et al, 2011). It started to gain importance
during the 2000’s second half and is related to smart cars, houses, cities, radio-frequency tags,
geolocalization and privacy issues. The text shows a literature review of these technologies, establishes
a timeline and a picture of its press’ representations.
Introdução
Você vai receber alguém para jantar. Enquanto dirige do trabalho para casa, com
o carro dizendo qual a rota menos congestionada, seu aspirador de pó limpa a sala e
seu fogão se prepara para cozinhar uma boa refeição. Mudou de ideia? A televisão
escolhe a melhor programação e o telefone faz seu pedido de comida chinesa. Essa é
a visão da Ericsson de uma web social das coisas, mostrada em um vídeo3 que
apresenta o protótipo de uma casa não só conectada e inteligente, mas também muito
simpática e preocupada com seu dono.
1
Artigo apresentado no NT 1 – Sociabilidade, novas tecnologias e práticas interacionais do II Simpósio em
Tecnologias Digitais e Sociabilidade realizado nos dias 11 e 12 de outubro de 2012 em Salvador-BA.
2
Mestranda do Programa de Pós-Graduação em Comunicação e Cultura Contemporâneas da UFBA na linha de
Cibercultura e participa do Grupo de Pesquisa em Cibercidades. Desenvolve pesquisa sobre a Internet das Coisas
e os territórios informacionais. Email: <ytasinger@gmail.com>
3
Disponível em <http://www.youtube.com/watch?v=i5AuzQXBsG4>. Acesso em 20 jul. 2012.
transforma os dados em linguagem humana, a Talking Tree4 mostra o que vê e sente em perfis
no Facebook e no Twitter, fotos no Flickr e pequenos trechos de áudio no SoundCloud.
No Rio de Janeiro, sensores, câmeras e camadas de informação mostram trânsito e
ocorrências diversas combinadas em tempo real em um telão de 80m² no Centro de
rede municipal de educação6. As etiquetas tem o objetivo de registrar a entrada dos estudantes
na escola e, em caso de falta, autorizar o envio de mensagens para os celulares dos pais dos
alunos ausentes.
Os diferentes conceitos
A ideia de uma rede mundial de objetos conectados que trocam informação entre si é
bastante amplas e faz com que muitas tecnologias e aplicações diferentes atendam pelo nome
de Internet das Coisas. A organização europeia The Internet of Things Council aponta que
mesmo durante os anos 80, antes de muitas dessas aplicações serem possíveis, projetos
desse âmbito já eram tratados por diferentes nomes:
4
Disponível em <http://www.talking-tree.com>. Acesso em 20 jul 2012.
5
Mais informações em: <http://www.rio.rj.gov.br/web/corio>. Acesso em 28 jul. 2012.
6
Mais informações em: <http://www1.folha.uol.com.br/cotidiano/1065480-uniforme-inteligente-entrega-aluno-
que-cabula-aula-na-bahia.shtml>. Acesso em 25 jul. 2012
8
Disponível em <http://technicaltoplus.blogspot.com.br/2010/03/what-internet-of-things-is-not.html>. Acesso
em 15 jul. 2012.
Profª Ariane Scarelli FPD 127
O problema da sobreposição das visões feita por Atzori é que ela inclui as tecnologias,
mas parece se preocupar pouco com os usuários delas. É possível que o autor imagine que
questões relacionadas à interfaces ou o design possam ser incluídas na categorias de ‘visão
orientadas às coisas”, mas é mais difícil perceber como disputas pela criação de padrões,
legislação sobre privacidade ou direito a informação possam ser incluídas nessa mesma
categoria. Ainda assim, a ideia de um paradigma computacional parece uma boa saída para o
estágio de tecnologia em desenvolvimento.
A ideia de que os objetos conectados representam um outro paradigma computacional
também aparece em Everyware de Greenfield (2006). Para ele, o everyware, tem implicações
profundamente diferentes do que os paradigmas anteriores, não apenas por causa dos tipos
de tecnologias que reúne, mas também pela experiência do usuário que sai de uma situação
em que o tempo, a maneira e a duração do seu envolvimento com um computador (portátil, que
seja) são controladas por ele e passa a lidar com um processamento distribuído no ambiente.
O entendimento de que a IoT cria outros parâmetros para a relação homem-computador é
compartilhada por Kranenburg et al (2010), que acreditam que existam duas principais visões
sobre o fenômeno:
On one side, a reactive position that sees IoT as a layer of connectivity on top
of current institutions, business models, and governance structures. On the
other, a proactive position that sees IoT as a new ontology that will alter the
relationship between human beings, autonomous M2M (Machine to
Machine) processes and decision making structures.9 (KRANENBURG et
al, 2011, p. 9).
Ainda que essa divisão coloque em categorias diferentes modelos de negócios e as novas
relações entre humanos e a IoT, ela reconhece que a autonomização dos objetos garante
caráter relacional do fenômeno. Acreditamos que juntas, as percepções de Atzori (2010), de
um paradigma formado pela intersecção de saberes e tecnologias; de Greenfield (2006), de
recriação da relação entre homem-computação; e a de Kranenburg et al (2011), de uma nova
ontologia; podem funcionar como uma perspectiva interessante para estudos da IoT.
Nossa definição operacional da IoT, portanto, a considera como um paradigma
computacional com implicações profundas no relacionamento entre homens e objetos. No que
tange ao tipo de tecnologia, aceitamos o conceito proposto pela Strategic Research Agenda da
9
Tradução da autora: De um um lado, uma posição reativa que vê a IoT como uma cama de conectividade no topo
das instituições atuais, modelos de negócios e estruturas governamentais. Do outro, uma posição pró-ativa que vê
a IoT como uma nova ontologia que vai alterar a relação entre sere humanos, processos autonomos M2M (machine
to machine) e estruturas de tomada de decisão. (KRANENBURG et al, 2011, p. 9)
Essa definição reúne diversos fatores, como a criação de uma rede global,
padronização e identidade dos objetos, é bastante ampla e delimita a IoT pelo o que
ela faz: conectar objetos dotados da capacidade de agirem por conta própria, com ou
sem supervisão humana.
Linha do Tempo
10
Tradução da autora: uma infraestrutura de rede dinâmica e global com capacidades de autoconfiguração baseadas
em protocolos de comunicação padronizados e interoperáveis nos quais as ‘coisas’ físicas e virtuais tem
identidades, atributos físicos, personalidades virtuais, usam interfaces inteligentes e são completamente integradas
na rede de informação. Na IoT, é esperado que as ‘coisas’ se tornem participantes ativas dos negócios e dos
processos informacionais e sociais nos quais eles são capazes de interagir e comunicar -se entre eles e com o
ambiente através da troca de dados e informação percebida sobre o ambiente, enquanto reagem de forma autônoma
aos eventos do ‘mundo físico/real’ e o influenciam ao iniciar processos que engatilham ações e criam serviços com
ou sem intervenção humana direta. Interfaces na forma de serviços facilitam as interações com as ‘coisas
inteligentes’ na Internet, informar e alterar seus estados e qualquer informação associada a eles, levando em conta
questões de segurança e privacidade. (CERP IoT, 2009, p. 6)
11
Mais informações em <http://www.beststuff.com/fromthewire/lg-internet-refrigerator-is-at-the-heart-of-the-
digital-home-network.html>. Acesso em 13 jun. 2012.
12
Tradução da autora: Os consumidores podem usar a geladeira com internet como uma TV, radio, para
chamadas com vídeo, bulletin borad, agenda e camera digital.
13
Disponível em <http://www.guardian.co.uk/technology/2003/oct/09/shopping.newmedia >. Acesso em 13 jun.
2012.
Profª Ariane Scarelli FPD 130
conectado em um artigo assinado por Neil Gershenfeld e outros pesquisadores do MIT Media
Lab14. Em 2005, o termo apareceu pela primeira vez no New York Times relacionado às
15
discussões na Cúpula das Nações Unidas para a era da informação naquele ano , seguida
de uma reportagem sobre as maravilhas e perigos dessa tecnologia, poucos dias depois16.
A partir de 2005, a discussão sobre a Internet das Coisas se generalizou, começou a
ganhar a atenção dos governos e aparecer relacionada a questões de privacidade e segurança
de dados. Foi neste ano que a Internet das Coisas se tornou a pauta do International
Telecommunication Union (ITU), agência das Nações Unidas para as tecnologias da informação
e da comunicação, que publica anualmente um relatório sobre tecnologias emergentes. Assim,
depois da barda larga e da internet móvel, a Internet das Coisas ganhou a atenção do órgão e
passou a figurar como o “próximo passo da tecnologias ‘always on’ [...] que prometem um mundo
de dispositivos interconectados em rede” (ITU, 2005, p. 1).
2005 ainda foi o ano do lançamento do Nabaztag17, um objeto com a forma de um coelho que,
conectado a Internet, poderia ser programado para receber a previsão do tempo, ler e-mails ou
notícias, entre outras aplicações. Com diversas possibilidades de uso, o Nabaztag foi o primeiro
objeto inteligente comercializado em escala e que tinha uma função menos “industrial”. Novas
versões do Nabaztag continuam a ser produzidas e a primeira versão do software do coelhinho
foi disponibilizada em código aberto.
O livro Shaping Things de Bruce Sterling também foi publicado em 2005. A obra apresenta
os spimes, objetos “desenhados em telas, fabricados digitalmente e rastreáveis no tempo e no
espaço” (STERLING, 2005, p. 11). A referência aos spimes de Sterling é constante e seu livro foi
o primeiro a esboçar critérios para o desenvolvimento desses objetos.
14
Disponível em <http://www.scientificamerican.com/article.cfm?id=the-internet-of-things>. Acesso em 13 jun.
2012
15
Disponível em <http://www.nytimes.com/2005/11/15/technology/15net.html?_r=1&pagewanted=all
> Acesso em 13 jun. 2012.
16
Disponível em <http://www.nytimes.com/2005/11/20/technology/20iht-wireless21.html>. Acesso em 13 jun.
2012
17
Mais informações em <http://en.wikipedia.org/wiki/Nabaztag>. Acesso em 13 jun. 2012.
18
O site do evento é <http://www.the-internet-of-things.org/iot2008/>. Acesso em 13 jun. 2012.
Mais recentemente, em março de 2012, a União Europeia propôs uma consulta pública21 a fim
de que os cidadãos apontassem suas necessidades e inseguranças sobre a IoT. E em 16 e
17 de junho, Londres sediou a 1ª Open IoT Assembly. Em dois dias de discussão, pessoas
livremente colaboraram para a criação de um documento com os princípios de transparência e
pontos de vista o site PostScapes.com mantém atualizada uma linha do tempo23 que conta a
história da Internet das Coisas relacionando outros fatores que não foram levados em
consideração nesta análise. O site também apresenta uma lista de definições24 empregadas
por organizações e pesquisadores. Uma relação dos principais avanços tecnológicos que
permitiram a interconexão de objetos pode ser encontrada em Kranenburg et al (2011) que
relaciona e analisa como essas tecnologias se relacionam.
Nossa linha do tempo, ao justapor os eventos que colaboraram para criar a Internet das Coisas,
nos permite perceber que as diferentes significados do termo derivam do contextos em que os
projetos surgiram e assim, Internet das Coisas aparece como sinônimo de ambientes
conectados, computação ubíqua, machine-to-machine, web das coisas, internet do futuro e
cidades inteligentes. Aos poucos, das tecnologias desenvolvidas para a logística e aplicações
19
Tradução da autora: O crescimento explosive dos smartphones e tablets levou o número de dispositivos
conectados a Internet para 12,5 bilhões em 2010, enquanto a população humana aumentou para 6,8 bilhões, fazendo
com que o número de dispositivos conectados por pessoa ser maior que 1 (1,84, para ser exato), pela primeira vez
na história. (EVANS, 2011, p. 3)
20
Mais informações em <http://www.itu.int/en/ITU-T/gsi/iot/Pages/default.aspx>. Acesso em 13 jun. 2012.
21
A consulta pública é realizada através da página
<http://ec.europa.eu/yourvoice/ipm/forms/dispatch?form=IoTGovernance.> Acesso em 20 jul. 2012.
22
A carta de princípios para a IoT aberta pode ser consultada em <http://openiotassembly.com/>. Acesso em 20
jul. 2012.
23
A linha do tempo do site Postscapes está disponível em <http://postscapes.com/internet-of-things-history. Acesso
em 20 jul. 2012.
24
A lista de definições está disponível em <http://postscapes.com/internet-of-things-definition>. Acesso em 20 jul.
2012.
O gráfico foi gerado pelo Google Insights, serviço que mostra a quantidade de
pesquisas feitas no Google.com a partir de uma palavra-chave. Nesse caso, utilizados
a palavra-chave “internet of things” e o gráfico exibe o crescimento das as buscas feitas
entre 1 de janeiro de 2004 e 12 de agosto de 201225.
Neste contexto, nos interessamos também pelo crescimento das notícias sobre
a IoT e fizemos uma pequena coleta de dados para avaliar como essa tecnologia é
tratada pela imprensa. Consultamos cinco sites de notícias internacionais e 5 sites
nacionais para observar como o tema foi sendo desenvolvido ao longo do tempo, quais
foram os assuntos abordados e
25
Mais informações sobre o gráfico do Google Insights estão disponíveis em <
http://www.google.com/insights/search/?hl=pt-BR#q=%22internet%20of%20things%22&cmpt=q>. Acesso em
12 ago. 2012.
Profª Ariane Scarelli FPD 134
fontes consultadas.
Adotamos como critério de seleção a visibilidade do conteúdo, em detrimento de
questões sobre qualidade no jornalismo. Nossa amostra foi formada a partir dos sites
mais acessados de acordo com o ranking da Alexa.com, empresa que classifica as
páginas de acordo com o alcance global, quantidade de pageviews. Para selecionar as
notícias, usamos os motores de buscas dos próprios sites e buscamos por “internet of
things” nos sites estrangeiros e “internet das coisas” nos sites nacionais. Excluímos da
amostra os sites que não apresentaram nenhum resultado para a busca por palavra-
chave e aqueles com conteúdo. A amostra final foi composta pelos sites CNET News,
The Guardian, Fox News, BBC News, Smart Planet, G1, Terra, IG, Folha de S. Paulo
e Estadão. No total, analisamos 67 notícias internacionais e 29 nacionais. A
distribuição das notícias ao longo do tempo, é a seguinte:
70,0
52,5
35,0
17,5
0
2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012
Mesmo em nosso pequeno retrato, ficou claro que na primeira metade dos anos
2000 a cobertura era esparsa e se limitava a manchetes que tinham como título apenas
A Internet das Coisas e tratavam de apresentar sumariamente uma nova tecnologia
que iria conectar diversos tipos de objetos. É a partir de 2009 que os objetos, carros,
casas e cidades inteligentes começam a aparecer com mais frequência e serem
relacionados majoritariamente com o futuro da tecnologia e, em menor proporção, com
preocupações em relação a segurança e privacidade.
As coberturas nacional e internacional não se diferem e usam não apenas dos
mesmos temas, mas também dos mesmos argumentos. O assunto mais abordado é o
Deste modo, se cada vez mais celulares, sensores e câmeras integram nosso dia a dia
e apontam para um futuro de cotidiano completamente conectado (ALBRECHT e MCINTYRE,
2006; GREENFIELD, 2006; KRANENBURG, 2008), importa discutir a IoT como tecnologia
automatizada e em rede que complexifica as discussões sobre agência, autoria, propriedade
e privacidade das informações.
Referências
ASHTON, Kevin. That ‘Internet of Things’ thing. Publicano no RFID Journal, 2009. Disponível em
<http://www.rfidjournal.com/article/view/4986>. Acesso em 13 jul. 2012.
ATZORI, Luigi; IERA, Antonio; MORABITO, Giacomo. The Internet of Things: a survey.
Computer Networks, 2010.
BROCK, L. The Electronic Product Code (EPC) – A naming Scheme for Physical Objects. 2001.
Disponível em <http://autoid.mit.edu/whitepapers/MIT-AUTOID-WH-002.PDF>. Acesso em 5 jul.
2012.
EVANS, D. The Internet of Things: how the next evolutivon of the intenet is changing everything.
White Paper, CISCO IBSG, 2011. Disponível em
<http://www.cisco.com/web/about/ac79/iot/index.html>. Acesso em 15 jul. 2012.
GERSHENFELD, N. When things Start to Think. Henry Holt and Company: Nova Iorque, 1999.
GIGLI, M.; KOO, S. Advances in Internet of Things. In: Scientific Research, vol 1, p. 27-31, 2011.
Disponível em <http://www.scirp.org/journal/ait/>. Acesso em: 18 ago. 2011.
GIUSTO, D.; IERA, A.; MORABITO, G.; ATZORI, L. (Orgs). The Internet of Things: 20th
Tyrrhenian Workshop on Digital Communication. Springer: Nova Iorque, Dordrecht, Heidelberg,
Londres, 2010.
GREENFIELD, A. Everyware: the dawning age of ubiquitous computing. New Riders: Berkley,
2006.
GUO, B.; DAQING, Z.; ZHU, W. Living with Internet of Things: The Emergence of Embedded
Intelligence, The 2011 IEEE International Conference on Cyber, Physical, and Social Computing,
Dalian, China, 2011. Disponível em < Acesso em 06 jul. 2012. [PDF].
SAHA, D.; MUKHERJEE, A. Pervasive Computing: a paradigm for the 21st century. IEEE
Computer, v.36, n.3, p.25–31, 2003.
SHEPARD, M. Sentient City: ubiquitous computing, architecture, and the future of urban space.
Cambrigde e Londres: MIT Press, 2011.
KRANENBURG, R. The Internet of Things: a critique ambient technology and the all-seeing
network of RFID. Amsterdã: Institute of Networks Culture, 2008.
KRANENBURG, R.; ANZELMO, E.; BASSI, A.; CAPRIO, D.; DODSON, S.; RATTO, M. The
Internet of Things. 1st Berlin Symposium on the Internet and Society. Outubro de 2011. Disponível
em <http://www.theinternetofthings.eu/sites/default/files/%5Buser-
name%5D/The%20Internet%20of%20Things.pdf>. Acesso em 26 jun. 2012.
YAN, Lu; ZHANG, Yan; YANG, Laurence T.; NING, Huansheng. The Internet of THings: from
RFID to the Next-Generation Pervasive Networked Systems. Auerbach Publications: Nova Iorque e
Londres, 2008.
WEISER, M. The Computer for the 21st Century. Scientific American, v. 265, n. 3, p.94104,
setembro, 1991. Disponível em <http://www.ubiq.com/hypertext/weiser/SciAmDraft3.html>. Acesso
em: 21 jul. 2012.
A Intel é uma das marcas mais famosas no ramo dos computadores e você provavelmente já ouviu falar
muito dela. Considerada uma das inventoras do microprocessador, a fabricante lançou seu primeiro chip
em 1971, mas foi somente com a popularização dos PCs (por meados da década de 80) que a companhia
lançou a primeira CPU da família x86.
De lá para cá, a Intel se consolidou no mercado com uma série de marcas e produtos. No começo, as linhas
mais famosas foram a Pentium e a Celeron. Depois, a empresa introduziu novos produtos como a linha
Core (que perpetua até hoje) e a linha Atom. A cada ano, uma enxurrada de novos processadores é lançada
para oferecer ainda mais desempenho.
Atualmente, a empresa divide seus produtos em sete linhas principais: Atom, Celeron, Pentium, Intel Core
i3, Intel Core i5, Intel Core i7 e Intel Core i7 Extreme. A maioria dessas séries conta com chips especiais
para notebooks e desktops. Ocorre que muitos itens são lançados anualmente, algo que dificulta o
acompanhamento dos detalhes.
É bem provável que você já tenha visto algum anúncio com um determinado modelo de processador e não
soubesse as configurações específicas. Justamente por conta dessa enormidade de modelos, nós
resolvemos reunir todos os detalhes em um único lugar. A seguir, vamos falar um pouco sobre cada uma
das séries, mas, antes, veja como entender um pouco das informações.
43
Disponível em <https://www.tecmundo.com.br/processadores/2760-tabela-de-processadores-intel.htm>. Acesso em 02
fev. 2017.
Se você busca informações para saber qual oferece maior performance, recomendamos a leitura de análises
especializadas dos principais sites interacionais. Levar apenas os números em conta não serve de muita
coisa para quem deseja adquirir um processador realmente robusto. Afinal, cada chip conta com uma
arquitetura própria e mostra resultados diferentes.
Modelos idênticos
Se você reparar em nossa tabela, há alguns processadores que trazem exatamente as mesmas
especificações de outros modelos semelhantes (veja i3-2100 e o i3-2102). Em casos como esses, pode ser
que um seja para venda e outro apenas para empresas parceiras.
Além disso, outros itens com as mesmas configurações podem ter diferentes valores para temperatura
máxima de operação, tecnologias de processamento (AVX, VT-x e outras) e outras alterações. Há casos em
que o único fator que muda é o TDP, algo que vai afetar diretamente o clock da GPU.
M: linha de produtos mobile. Processadores com essa letra são específicos para notebooks e ultrabooks;
Q: essa letra indica se um processador é quad-core. Ela referencia tal característica em chips mobile;
U: são CPUs do tipo “Ultra Low Power”, ou seja, que requisitam pouquíssima energia;
X: os chips mais avançados da Intel são do tipo eXtreme. Geralmente, os chips “X” contam com mais recursos
(núcleos, threads, clock, cache, etc.) para oferecer desempenho máximo;
Y: são os processadores mais econômicos. Eles consomem menos energia do que componentes do tipo “U”.
Socket
O socket é o arranjo de conexões na parte inferior do chip, o qual permite a instalação do componente em
um determinado encaixe (com ligações semelhantes) na placa-mãe. A Intel trabalha com três tipos de
socket: LGA, BGA e PGA.
O LGA (Land Grid Array) é um dos padrões de produtos disponíveis para o consumidor. CPUs com esse tipo
de socket podem ser instaladas manualmente, sendo possível trocar de chip com facilidade. O número que
acompanha o a sigla LGA é referente à quantidade de pinos na placa-mãe e aos buraquinhos presentes na
parte inferior do processador.
O BGA é um padrão que geralmente não é disponibilizado para o usuário. Esse tipo de conexão é utilizado
em processadores que serão usados por empresas montadoras de computadores (caso da HP, Samsung e
outras). Basicamente, CPUs com essa característica são soldadas à placa-mãe, o que inviabiliza o comércio
dos componentes.
Núcleos e Threads
Uma das informações que pode diferenciar o desempenho de um componente para o de outro é a
quantidade de núcleos. Considerando as arquiteturas dos atuais softwares, dois núcleos já não oferecem
os mesmos resultados de alguns anos atrás. É justamente por isso que os chips mais robustos são do tipo
quad-core — alguns modelos trazem até seis núcleos.
Todavia, as CPUs da Intel contam com outro fator que pode ajudar no processamento de tarefas
simultâneas. Sim, estamos falando dos threads. Essa característica garante ao chip recursos avançados
para dividir um processo em diversas partes e garantir mais agilidade e opções avançadas em algumas
situações.
A regra é simples: quanto mais threads, melhor o desempenho. Isso quer dizer que, ao comparar dois
processadores com os mesmos recursos (núcleos, frequência, tecnologia turbo, memória cache e GPU),
mas com um número de threads diferentes, o chip com maior quantidade de threads será o mais robusto e
possivelmente garantirá resultados melhores.
Vale salientar, contudo, que esta regra não pode ser levada na ponta do lápis. Existe um negócio chamado
arquitetura. Cada nova geração de processadores traz uma nova arquitetura, a qual pode fazer toda a
diferença na utilização dos recursos — inclusive no aproveitamento de multithreading.
Frequência e Turbo
Se você tem algumas noções básicas de informática, é bem possível que saiba que uma CPU trabalha em
ciclos. Essa quantidade de atividades realizada em repetição é chamada de frequência. Basicamente,
quanto maior a frequência, mais cálculos são realizados em um segundo e, consequentemente, mais tarefas
são realizadas no menor tempo possível.
É importante notar, contudo, que nem todos os softwares se comportam de maneira igual. Em algumas
situações, um pouco de potência adicional pode ser necessária. É nessa hora que entra a tecnologia “Turbo
Boost”. Quando todos os recursos da CPU já estão em uso, esse recurso realiza um overclock automático e
garante um desempenho extra.
Detalhe: o Turbo Boost também dá uma melhorada em quatro núcleos em casos extremos.
Sobre o TDP
O TDP (Energia Térmica de Projeto) indica a quantidade máxima de energia liberada pela CPU. Tal valor
também revela qual deve ser a capacidade de dissipação do sistema de refrigeração. Vale ficar ligado para
não confundir o TDP com o consumo de energia do chip.
Quanto à memória
Os atuais processadores Intel contam com três níveis de memória cache. O nível L1 é divido em duas partes:
instruções e dados. Cada parte é dividida em dois, algo que propicia melhores resultados para as atuais
arquiteturas da fabricante. Em nossa tabela, somamos os valores, por isso você vê 128 KB (instruções) +
128 KB (dados), mas o certo seria 64 KB x 2 + 64 KB x 2.
A memória Smart Cache da Intel é o nível L3. Esse módulo é dividido entre todos os núcleos e armazena
dados que podem ser úteis a todos os cores. Como você deve imaginar, quanto maior o cache L3, maior
será o desempenho do processador.
Intel Core 2
Codinome: Duo (Conroe / Allendale / Wolfdale) - Quad (Kentsfield / Yorkfield)
Lançamento: 2006 / 2007 / 2008
Litografia: 45 / 65 nm
Intel Core 2
Intel Core 2 Duo E8600
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E8500
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E8400
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E8300
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E8190
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E8200
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E7600
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E7500
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E7400
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E7300
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E7200
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E6850
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E6750
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E6700
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E6600
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E6550
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E6450
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E6420
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E6320
32 KB (instruções) + 32 KB (dados)
Intel Core 2 Duo E6300
Intel Pentium
Codinome: Wolfdale-3M / Clarkdale / Sandy Bridge
Lançamento: 2010 / 2013
Litografia: 45 / 32 nm
Intel Celeron
Codinome: Penryn / Arrandale / Sandy Bridge
Lançamento: 2009 / 2011
Litografia: 45 / 32 nm
Intel Celeron
Intel Celeron G1620
LGA1155
2,7 GHz
64 KB (instruções) + 64 KB (dados)
2 x 256 KB
Intel® HD Graphics
32 GB (DDR3-1333)
Intel Celeron G1610T
LGA1155
2,3 GHz
64 KB (instruções) + 64 KB (dados)
2 x 256 KB
A evolução continua...
Esses modelos são apenas uma pequena parte dos tantos processadores já comercializados pela Intel. É
importante notar que a fabricante vai lançar diversos chips no futuro, os quais serão acrescentados nessas
tabelas. Esperamos que as informações tenham sido úteis. Até a próxima!
Sabemos que existe tecnologia de internet através de energia elétrica, aqui no Brasil é
comercializado por algumas empresas especializadas no assunto. Mas agora eis que surge a
nova tecnologia de conexão, a LI-FI. A Li-Fi, do termo inglês "Light Fidelity", é uma tecnologia
que emprega luz para transmitir dados em alta velocidade. Diferente da Wi-fi que usa ondas de
rádio, a Li-Fi usa lâmpadas de LED para transmitir as informações.
A Li-Fi pode transmitir velocidades até 100 Gbps e, possivelmente ainda mais, mas isso exigiria
uma mudança na tecnologia de iluminação. Relatórios de testes recentes mostram que Li-fi é
100 vezes mais rápido do que Wi-Fi tradicional, onde atuam em velocidades médias de WiFi a
10 Mbps.
Testes com diferentes tipos de lâmpadas estudadas, podem chegar a 100Gbps de velocidade.
A Li-Fi surgiu através das pesquisas do professor Harald Haas, que é presidente das
Comunicações Móveis da Universidade de Edimburgo e co-fundador da pureLiFi. Ele foi a
primeira pessoa a estudar a tecnologia. Usou o termo pela primeira vez durante uma palestra do
44
Disponível em <https://www.oficinadanet.com.br/post/15644-o-que-e-lifi-e-como-funciona>. Acesso em 02 fev. 2017.
A tecnologia Li-Fi usa uma lâmpada real para estabelecer uma comunicação de dados. A partir
de lâmpadas de LED, você será capaz de: Enviar dados, ouvir música, olhar os vídeos e,
finalmente, para se conectar à Internet.
A tecnologia (CLV) Visible Light Communications, funciona com piscadas das lâmpadas, a
famosa frequência. Onde são ligadas e desligadas as lâmpadas em períodos de nanossegundos,
o que torna imperceptível aos olhos e ouvidos humanos. Os LEDs são diferentes de qualquer
outro tipo de lâmpadas, pois são semicondutores. Esta característica dá aos LEDs a capacidade
de ligar e desligar em nanossegundos.
Mas sabemos que ondas de luz não podem penetrar paredes, como ondas de rádio fazem, desta
forma a Li-Fi tem seu alcance diminuído a cômodos de sua casa ou escritório, por exemplo.
Entretanto, basta que cada cômodo tenha as lâmpadas que possam enviar as informações.
Vantagens:
A Li-Fi possui vantagem de apta para uso em áreas sensíveis à ondas eletromagnéticas, como
cabines de aeronaves, hospitais e usinas nucleares, pois obviamente não possuem ondas
eletromagnéticas.
Outra vantagem é que o espectro da luz visível é 10 mil vez maior que todo o espectro da rádio
frequência. E a US Federal Communications Commission tem alertado para uma potencial crise
no espectro da Wi-Fi, que está próximo de atingir o seu limite.
Os pesquisadores também veem a Li-Fi como uma vantagem em relação a hackers, pois seu
Wi-Fi está "visível" fora do ambiente de casa ou do escritório, já a Li-Fi não consegue atravessar
paredes, o que mantêm a rede dentro dos ambientes.
Alguns Testes
Um teste feito em 2013, por Chi Nan, professor de Tecnologia da Informação da Fudan
University, localizada em Shanghai, na China, conseguiu manter quatro computadores
conectados à Internet por meio de apenas uma lâmpada de LED com um alcance de 150 Mbps.
Primeiramente, você vai continuar a receber a internet do seu provedor, só que o modem que
vai transmitir a internet para seu ambiente, vai ser um modem conectado a rede elétrica da casa.
As lâmpadas precisam ser as transmissoras, ou seja, precisaria trocá-las. E seus dispositivos
terem um sensor foto detector para receber os impulsos elétricos e converter em dados.
Aparentemente está longe de termos a tecnologia funcionando em nossos lares, porém com o
avanço das pesquisas, poderemos ter em alguns anos. Os dispositivos necessários não devem
ser caros. Empresas como Samsung já cogitam inserir os detectores em seus próximos
smartphones.
Outro ponto essencial é o apoio da indústria para essa nova tecnologia, principalmente os
fabricantes de dispositivos móveis, que é categoria de aparelhos que o Li-Fi trabalhará
diretamente. Fabricantes como Samsung e LG já estão cogitando incluir sensores Li-Fi em seus
futuros smartphones.
E aí, o que achou da nova tecnologia? Estaria disposto a mudar Wi-Fi para Li-Fi?
45
Disponível em <https://www.tecmundo.com.br/infografico/44580-por-dentro-do-universo-sombrio-da-deep-web-
infografico-.htm>. Acesso em 02 fev. 2017.
As respostas podem ser simples, mas os caminhos nem tanto. A Deep Web é composta por vários níveis de
ocultamento — que exigem diferentes formas de acesso. Para que isso fique mais claro, vamos separar a
internet em algumas camadas. Ao contrário de outras publicações, não utilizaremos essas camadas para
diferenciar os conteúdos existentes (principalmente porque o teor deles é parecido e chega a se confundir
em muitos momentos), mas para deixar mais claras as formas de acesso a elas.
Tecmundo, Google, Facebook, Baixaki e outros sites que estamos acostumados a acessar ficam na parte da
internet que é chamada de “Surface”. Em uma tradução literal, é a superfície da web. Essa “região” é
entendida pelos motores de busca e pode ser acessada facilmente. Mas logo abaixo da superfície existe
uma zona composta por sites comuns e não indexados.
Isso significa que há muitas páginas que precisam de links diretos para serem acessadas. Em um resumo
bem simples, são sites que não estão escondidos e que também não estão visíveis. Isso engloba uma grande
quantidade de páginas criadas na década de 1990, somadas a diversas que foram feitas mais recentemente
e que tiveram a indexação bloqueada — basta uma linha de programação para isso.
Mas o que faria alguém não querer ter o site indexado? São diversas as razões. Isso vai desde a necessidade
de manter o sigilo de algumas informações até a simples opção dos programadores. Alguns bons exemplos
Se a internet “surface” engloba os sites indexados e os não indexados — estes já podendo ser colocados em
um primeiro nível de “deep web” —, a parte mais profunda não seria tão simples de ser acessada. Em uma
primeira camada, não basta ter um link direto, pois somente computadores com proxy correto têm
permissão para acessar algumas informações.
Mais abaixo ainda, surgem os sites e fóruns que exigem o acesso distribuído — o que garante o anonimato
nas trocas de dados. Para isso, somente com navegadores e redes com suporte a sistemas Tor ou similares.
Esqueça os “www” e os “.com.br”. Na Deep Web os endereços parecem mais com senhas de alta segurança
do que com sites tradicionais.
Esses fatores se somam e, dessa forma, garante-se o anonimato, pois a navegação é distribuída por diversos
caminhos, não permitindo o rastreio direto à fonte das informações que estão sendo trocadas. Em resumo,
a navegação por Tor oferece muito mais segurança aos usuários do que a comum, e isso é essencial para
evitar que os domínios consigam existir sem ser rastreados.
Depois de mudanças de proxy e navegadores com Tor, há relatos de que existe uma camada ainda mais
profunda. Ela exigiria modificações específicas no hardware dos computadores, criando uma camada muito
restrita. É importante dizer que não há confirmações de que essa área de Deep Web realmente exista, mas
ela vem sendo citada em muitos artigos sobre o tema já faz algum tempo.
Há quem fale em “Surface”, “Bergie”, “Deep”, “Charter” e “Mariana’s” Web para diferenciar os tipos de
conteúdos que podem ser encontrados em cada camada. Mas a grande verdade é que as diferenças
principais estão nos modos de acesso — que estão diretamente ligados ao quanto as pessoas querem
esconder esses conteúdos do público “comum”. Sem nomenclaturas que apenas dificultam ainda mais a
compreensão do assunto, vamos a um rápido resumo:
Primeiro nível: internet comum, que pode ser acessada por qualquer pessoa e que é indexada pelos
motores de busca;
Segundo nível: internet comum, que pode ser acessada por qualquer pessoa, mas não é indexada
pelos motores de busca;
Terceiro nível: internet restrita, que necessita a alteração de proxy para ser acessada;
Quarto nível: internet mais restrita, que demanda a utilização de navegadores com distribuição de
acesso (Tor);
Quinto nível: internet “secreta” (não confirmada), que exige a alteração do hardware para que as
comunicações ocorram.
Por causa de uma série de fatores, costumamos pensar que a Deep Web é um depósito de conteúdos ilegais
e imorais, com disponibilização de softwares para invasão de sistemas, guias de terrorismo e outros
materiais que levariam qualquer pessoa para a cadeia. Isso existe, mas não é uma exclusividade. Assim
como acontece na superfície da internet, há uma grande diversidade de conteúdos.
E isso acontece em todas as camadas da rede. Existem os hackers que compartilham informações para
derrubar sites de conteúdo ilegal — e que colaboram com a polícia para que criminosos vão para a cadeia.
E existem os que compartilham itens ilegais (nos mais variados graus de ilegalidade e ofensividade) e
oferecem serviços do mesmo gênero (vendas de armas, drogas e afins).
.....
Há muitas lendas que envolvem a Deep Web e não há como dizer quais delas são verdadeiras e quais não
são. Isso é extremamente difícil de ser mensurado, uma vez que a quantidade de informações que circulam
nessas redes é imensa. Se você quiser tentar, lembre-se do que acabamos de dizer: não clique em nada que
você encontrar. Você vai tentar navegar por lá ou acha melhor ficar aqui no raso?