Você está na página 1de 112

Transformação

e Mudança
100 mini papers

Technology Leadership Council Brazil


Transformação e Mudança
100 Mini Papers

Technology Leadership Council Brazil

São Paulo

2014
Apresentação
Transformação e mudança: A decisão é sua – Lidere ou desista
Rodrigo Kede de Freitas Lima, General Manager IBM Brasil

Estamos em um momento de grandes transformações. Se você Novamente fomos às urnas e elegemos um novo presidente.
vive no Brasil e trabalha em tecnologia tem motivo de sobra Fernando Henrique Cardoso, ex-ministro da Fazenda do governo
para se sentir em uma montanha-russa. Toda montanha- russa Itamar, um dos pais do Plano Real, construiu a credibilidade com
desperta uma serie de sensações – enquanto uns tem medo, o país inteiro enquanto era ministro para se candidatar e ganhar
outros se divertem, outros sentem frio na barriga; mas uma as eleições. FHC, como era conhecido, foi responsável por uma
coisa é certa – a maioria no final da viagem tem uma sensação fase fundamental no desenvolvimento do país. Nos seus dois
de desafio cumprido e de ter vencido. mandatos, foi o responsável por estabilizar a economia e mudar
o cenário do país: criou a lei de responsabilidade fiscal, saneou
Podemos começar falando do Brasil. Em 1985, depois de mais
o sistema financeiro, construindo um dos mais sólidos do mundo,
de 20 anos de regime militar, tivemos novamente um presidente
privatizou vários setores como o de Telecomunicações e Energia.
civil (Tancredo Neves), eleito pelo congresso nacional, que
Antes do seu Plano Real, vivíamos um mundo de 40% de inflação
nem chegou a tomar posse, pois
ao mês; algo inimaginável nos dias de
faleceu antes disso. A nova geração
hoje – os preços nos supermercados
talvez não conheça os detalhes do
mudavam várias vezes ao longo do dia
movimento “Diretas Já” que mostrou a
(dá para viver assim?). Considero a fase
força que tem um povo unido que briga
do Governo FHC como de eficiência
pelos seus direitos. Entre 1985 e 1990
operacional e estabilização econômica.
passamos por vários planos econômicos
Novamente estamos falando de quase
fracassados e uma eleição presidencial
4 10 anos de muita transformação.
– a primeira na qual o povo foi às urnas
e escolheu seu presidente. Estávamos Em 2002, a população elegeu Luis
ainda engatinhando no restabelecimento Inácio Lula da Silva, ou Lula apenas.
da tal democracia, algo completamente Lula certamente surpreendeu muitos
esquecido nos quase 21 anos de regime durante sua gestão, menos radical do
militar. Hoje, olhando para trás, fica mais que era esperado por alguns setores.
fácil entender a história toda, mas não Honrou contratos, manteve a filosofia de
é possível “(re)aprender democracia” em 5 anos. Cometemos gestão econômica do governo anterior e colocou em cargos-
muitos erros e alguns acertos. chave pessoas com bastante credibilidade como o presidente
do Banco Central – Henrique Meirelles (ex CEO Global do Bank
Em 1989, fomos às urnas e elegemos um presidente da República
Boston). Lula focou seus esforços em resolver o problema de
jovem, que prometia mudar o país, corrigir a onda de corrupção
pobreza no país, sua principal bandeira. No final de suas duas
que assolava o nosso querido Brasil. Pouco mais de 2 anos
gestões, acho que existem, assim como nos governos anteriores,
depois de sua eleição, o povo foi mais uma vez às ruas para
alguns marcos que foram fundamentais para o desenvolvimento
pedir o impeachment do então presidente Fernando Collor.
do país. O primeiro foi o que chamo de Mobilidade Social – uma
Seu vice-presidente assumiu o poder e concluiu o mandato em
democracia em algum momento aprende a gerir o país e estabilizar
1995. Foram anos de muito aprendizado para o povo, para os
sua economia. Depois disso é natural que a pirâmide social
políticos e para o sistema. Eu costumo dizer que esse foi um
comece e mudar. Tínhamos uma classe média que representava
período importante de transformação do país em uma democracia
pouco mais de 20% da população e hoje estamos falando de
(por mais rudimentar e problemático que tenha sido o período,
quase 60% da população. O Brasil também se beneficiou por
conseguimos restabelecer um país democrático).

Technology Leadership Council Brazil


ser um dos maiores produtores de commodities do mundo e Você deve estar pensando qual a relação disso com tecnologia
aumentou significativamente o nível de exportações para a e com a IBM. Na minha opinião, absolutamente tudo. Toda
China, segunda economia do mundo, que virou nosso maior essa transformação só existirá com uso intenso de tecnologia
parceiro comercial, trazendo muita riqueza para o país. Natural, pela empresas, governos e instituições. Nós da IBM investimos
depois do restabelecimento da democracia e da estabilização 100 anos trabalhando pelo progresso da sociedade, portanto
da economia. O país cresceu acima da média das décadas podemos e teremos um papel ainda mais fundamental na
anteriores graças a uma nova classe de consumidores. Nosso transformação do Brasil.
crescimento como país foi resultado do crescimento do consumo
Por esta razão, gostaria de falar sobre outra transformação que
interno e do sucesso da China.
esta acontecendo no mercado de TI. Os clientes estão cada vez
Em 2010, Dilma foi eleita presidente da República. Desde mais comprando outcomes, soluções de negócio, específicos
2008, com a crise mundial, crescer ficou mais difícil. Somente o para cada setor, ao invés de infraestrutura. Temos que pensar
consumo doméstico não é suficiente para fazer o país crescer nos que agora a commoditização não será dos produtos apenas
patamares necessários. A China, apesar de continuar crescendo, e sim dos modelos. O mundo caminha a passos largos para
cresce menos e compra menos. E agora? O nome do jogo para cloud, mobile, social business e big data. A tecnologia está
o Brasil é eficiência e competitividade. Para conseguir isso, saindo do back office e indo cada vez mais para o front office.
precisamos de um investimento enorme em infraestrutura e Está deixando de ser custo e virando fonte de receitas. “Dados”
educação para disponibilização de mão de obra qualificada. já são o novo recurso natural e as empresas e instituições que
Com aproximadamente 5% de taxa de desemprego, como entenderem isso sairão na frente. No caso específico da IBM,
vamos crescer? Temos que fazer mais com o mesmo, ser mais somos a única empresa do mercado que desenvolveu a tecnologia 5

eficientes e produtivos. Portos, aeroportos, ferrovias, tecnologia, de Computação Cognitiva, que na minha opinião vai mudar a
pesquisa e desenvolvimento nas mais diversas áreas, investimento forma como vivemos e trabalhamos.
pesado em educação básica... Estamos no meio dessa batalha.
Estamos, portanto, vivendo um momento de transformação intensa
Já começamos esse trabalho como país. Muitas são as críticas e em tecnologia também. Tenho certeza de que daqui a 5 anos,
o povo, com legitimidade, foi às ruas questionar e pedir solução teremos novos players e alguns concorrentes desaparecerão.
para os seus problemas. Precisamos, cada vez mais, nos especializar nas novas tendências
da tecnologia e não somente nos produtos – e isso é válido
Sou um eterno otimista e acredito que, apesar dos erros e da
para vendas, para o time técnico, para delivery e até mesmo
velocidade, estamos fadados a crescer e nos tornar um país
para o back office.
desenvolvido em algum momento. Temos 19% da terra arável e
12% da água potável do mundo. Quanto vai valer isso em 2050, Dizemos que a cada 30-40 anos, a tecnologia passa por uma
quando 70% da população mundial estará vivendo em cidades? onda disruptiva. Esse momento é agora.
Temos que acelerar os investimentos e o desenvolvimento. Essa
Brasil e Tecnologia, ambos num momento crucial de transformação.
será a única forma de termos um país desenvolvido para os
Combinação “especial”. Como disse, tem gente que gosta de
nossos netos.
montanha-russa (como eu), outros não.
Vivemos, portanto, num país em uma enorme Transformação.
A jornada é longa, mas o jogo é ganho a cada dia.
E cada um de nós tem seu papel nessa jornada.
Lidere ou desista.

Technology Leadership Council Brazil


Copyright © 2014 IBM Brasil — Indústria, Máquinas e Serviços Ltda.
Todas as marcas neste livro são propriedades de seus respectivos donos, com direitos reservados.

Organização: Technology Leadership Council Brazil.

Coordenadores do livro: Argemiro José de Lima e Maria Carolina Azevedo.

Projeto Gráfico: www.arbeitcomunicacao.com.br

Dados Internacionais de Catalogação na Publicação (CIP)


(Câmara Brasileira do Livro, SP, Brasil)

Transformação e mudança [livro eletrônico] :


100 mini papers. -- São Paulo : Arbeit Factory
Editora e Comunicação, 2014.


Vários autores.
ISBN 978-85-99220-04-7

1. Computação 2. Engenharia de software 3. IBM -


Computadores 4. Liderança 5. Mudança 6. Tecnologia
da informação.

14-11613 CDD-004
Índices para catálogo sistemático:
1. Transformação e mudança : Liderança :
Tecnologia da informação 004
Sumário

Computadores Híbridos, a próxima fronteira da computação..................................................................................... 10


Como ler em cinquenta anos o que foi escrito hoje?................................................................................................... 11
A maneira Lean de se pensar . .................................................................................................................................... 12
Então, você quer trabalhar com Arquitetura de TI?...................................................................................................... 13
Computação Quântica................................................................................................................................................. 14
O desafio da modernização de sistemas legados....................................................................................................... 15
Tecnologia para Cidades Inteligentes.......................................................................................................................... 16
Tudo como Serviço....................................................................................................................................................... 17
O Nevoeiro e o Sapo.................................................................................................................................................... 18
Boas práticas para a elicitação de requisitos.............................................................................................................. 19
O homem que enxergou a forma das coisas............................................................................................................... 20
Métricas de Software................................................................................................................................................... 21
Gestão por Competências: é hora do C.H.A............................................................................................................... 22
Daily Scrum para todos!............................................................................................................................................... 23
Como agradar ao cliente que contrata serviços?........................................................................................................ 24
Especial Centenário da IBM: SAGE, um berço de inovação....................................................................................... 25
Integrar conhecimentos: o desafio do consultor.......................................................................................................... 26
Especial Centenário da IBM: IBM RAMAC: O início de uma era na computação comercial...................................... 27
A evolução do modelo de entrega de serviços de TI................................................................................................... 28
Especial Centenário da IBM: IBM 1401, quando os tempos eram outros.................................................................... 29
A Internet das Coisas................................................................................................................................................... 30
Especial Centenário da IBM: O Programa Espacial e a Tecnologia da Informação.................................................... 31
Colaboração eficiente em um Planeta Inteligente........................................................................................................ 32
Especial Centenário da IBM : Enxergando o mundo melhor....................................................................................... 33
Vivemos em um mundo cada vez mais instrumentado................................................................................................ 34
Especial Centenário da IBM: Elementar, meu caro Watson......................................................................................... 35
Impactos da revolução multi-core no desenvolvimento de software........................................................................... 36
Especial Centenário da IBM: A IBM e a Internet.......................................................................................................... 37
Governança, Risco e Conformidade............................................................................................................................ 38
Especial Centenário da IBM: IBM Tape: Quebrando barreiras no armazenamento de dados.................................... 39
O novo Bug do Milênio?............................................................................................................................................... 40
Manutenções de sistemas na velocidade do negócio................................................................................................. 41
Escalabilidade e Gerenciamento em Cloud Computing.............................................................................................. 42
A evolução da Web na direção dos negócios.............................................................................................................. 43
Agilidade Financeira em TI........................................................................................................................................... 44
Gestão de Custos de TI................................................................................................................................................ 45
FCoE, a integração das redes LAN e SAN.................................................................................................................. 46
Poder, muito poder, de processamento....................................................................................................................... 47
O Poder da Tecnologia Social...................................................................................................................................... 48
Meninas e Tecnologia.................................................................................................................................................. 49
Sobre Profetas e Bolas de Cristal................................................................................................................................. 50
Cidades inteligentes: o trabalho se move para que a vida siga................................................................................... 51
Tecnologia especial para a inclusão social.................................................................................................................. 52
Agile: você está preparado?......................................................................................................................................... 53
A Teoria das Inteligências Múltiplas e as Profissões em TI.......................................................................................... 54
Analytics ao alcance dos seus dedos.......................................................................................................................... 55
A importância do processo de RCA............................................................................................................................. 56
Posso ver os dados?.................................................................................................................................................... 57
Aprender Brincando..................................................................................................................................................... 58
Processamento de áudio em placas gráficas.............................................................................................................. 59
Unicode ♥ ‫ ☻ דוקינו‬Уникод ♫ ‫وكينوي‬........................................................................................................................... 60
A verdade é um caminho contínuo............................................................................................................................... 61
Tudo (que importa) a seu tempo................................................................................................................................... 62
Computação em Nuvem e Sistemas Embarcados...................................................................................................... 63
Nanotecnologia — Como Isso Muda Nossas Vidas?.................................................................................................... 64
TI com Sustentabilidade e Eficiência............................................................................................................................ 65
A estratégia e sua operacionalização.......................................................................................................................... 66
A evolução do NAS...................................................................................................................................................... 67
Vai para a nuvem ou não vai?....................................................................................................................................... 68
Profissão: Arquiteto de Negócios................................................................................................................................. 69
Quatro Horas?.............................................................................................................................................................. 70
Se botar sua reputação na vitrine, ela vai valer mais que R$ 1,99?............................................................................. 71
O que é Segurança da Informação.............................................................................................................................. 72
A matemática do acaso................................................................................................................................................ 73
A Origem do Logical Data Warehouse (LDW).............................................................................................................. 74
Storage & Fractais........................................................................................................................................................ 75
Social Business versus Social Business Model........................................................................................................... 76
Método Científico e Trabalho....................................................................................................................................... 77
Qual é o tamanho do link?............................................................................................................................................ 78
Bancos de dados NoSQL............................................................................................................................................ 79
Os desafios da Internet das Coisas............................................................................................................................. 80
Traga seu dispositivo móvel......................................................................................................................................... 81
O céu é o limite para a automação inteligente............................................................................................................. 82
Inteligência em segurança, uma nova arma contra o cyber crime.............................................................................. 83
Tecnologia Transformando Cidades Inteligentes......................................................................................................... 84
Crowdsourcing: o poder da multidão........................................................................................................................... 85
TOGAF – O que é e por quê?........................................................................................................................................ 86
Revele o cliente que está por trás dos dados.............................................................................................................. 87
Singularidade: Você está pronto para viver para sempre?.......................................................................................... 88
Agora eu posso twittar................................................................................................................................................. 89
O novo consumidor...................................................................................................................................................... 90
Transformando riscos em oportunidades de negócio.................................................................................................. 91
QoS em redes de acesso em banda larga.................................................................................................................. 92
As máquinas sentem?.................................................................................................................................................. 93
Alinhando TI e TA......................................................................................................................................................... 94
O “Vale do Grafeno” e a Revolução Tecnológica......................................................................................................... 95
O tempo não para, mas pode ser melhor aproveitado................................................................................................. 96
Ontologias e a Web Semântica.................................................................................................................................... 97
Customização em massa: obtendo uma vantagem competitiva................................................................................. 98
Software Defined Network: O Futuro das Redes......................................................................................................... 99
Uma vista privilegiada do planeta Terra....................................................................................................................... 100
Sorria, você pode estar nas nuvens............................................................................................................................. 101
IBM Mainframe – 50 anos de Liderança Tecnológica e Transformação....................................................................... 102
A Interoperabilidade da Internet das Coisas................................................................................................................ 103
Gerência de Projetos Ágil ou PMBOK®?...................................................................................................................... 104
Sangue, suor e Web: como a World Wide Web foi criada............................................................................................ 105
Acesso Direto à Memória: vulnerabilidade por projeto?............................................................................................... 106
Big Data e o nexo das forças....................................................................................................................................... 107
Desmistificando Capacidade Virtual, Parte I............................................................................................................... 108
Desmistificando Capacidade Virtual, Parte II.............................................................................................................. 109
Considerações Finais e Agradecimentos.................................................................................................................... 110
Computadores Híbridos, a próxima fronteira da computação
Daniel Raisch

Por mais de 20 anos a indústria z/Series, o qual conterá processadores das suas tradicionais
de TI conseguiu manter válida famílias (Mainframe, POWER7 e x86) dispostos numa única
a Lei de Moore, dobrando a plataforma computacional, gerenciada de forma centralizada e
capacidade de processamento integrada. No passado recente a IBM disponibilizou um servidor
dos chips a cada 18 meses, z/Series integrado com processadores Cell para atender uma
mas ultimamente tornou-se um necessidade específica da Hoplon, empresa brasileira que
grande desafio manter tal ritmo, atua no mercado de infojogos. Essa experiência foi muito bem
o que pode significar uma sucedida e possibilitou o avanço na direção do conceito de
ameaça para o mercado, que servidor híbrido. Com essa nova plataforma, que está em
segue demandando por mais fase final de desenvolvimento, a IBM pretende prover uma
capacidade. solução de grande desempenho e escalabilidade, capaz de
atender às demandas por soluções que requerem poder de
A atual arquietura de chips atingiu sua limitação física,
processamento com características mistas entre as tradicionais
considerando-se a curva de desempenho versus a dissipacão de
aplicações comerciais e aplicações de computação intensiva
calor gerada e a energia necessária para o seu funcionamento.
(High Performance Computing).
Não é mais possível continuar entregando mais capacidade sem
uma mudança de conceito e de arquitetura. Já foram tentadas Com os computadores híbridos pretende-se ultrapassar as
algumas soluções, como por exemplo a fabricação de chips limitações impostas pelas atuais arquiteturas e também resolver
multicore, mas ainda não se resolveu esse impasse. Por outro lado, os problemas gerados pela forte dependência existente entre
o mercado de TI continua precisando de mais capacidade para as aplicações e a plataforma computacional para as quais
atender às novas demandas de negócio, através de aplicações foram originalmente projetadas. Esse novo tipo de computador
cada vez mais complexas, as quais requerem computadores funcionará como se fossem vários servidores lógicos virtualizados
cada vez mais potentes. num único servidor físico, com uma camada de gerência integrada,
10 capaz de distribuir partes de uma aplicação para o processador
A indústria está buscando alternativas para endereçar essa
que lhe for mais propício, dando ao seu usuário as facilidades
questão. Uma consiste no aumento do nível de paralelismo entre
e os beneficios de uma plataforma fisicamente centralizada,
os diversos núcleos de processamento de um mesmo chip, o
mas logicamente distribuída, endereçando os atuais desafios
que requer novos conceitos de programação e redesenho dos
do mundo descentralizado relativos à integração de aplicações,
atuais sistemas para que possam explorar essa arquitetura de
segurança, monitoração, distribuição de carga e contabilidade
processadores. Outra alternativa consiste na implementação de
do uso de recursos, entre outros.
um novo conceito de computadores, baseado numa arquitetura
híbrida de processadores. Simplificação da TI, redução do número de servidores instalados
(e de seus requisitos de espaço, energia e refrigeração), maior
Computadores híbridos são compostos por distintos tipos
capacidade de gerência de ponta-a-ponta e, consequentemente,
de processadores, fortemente acoplados sob um sistema
redução do custo total de propriedade. Essas são as propostas
integrado de controle e gestão, que possibilita o processamento
de valor das arquiteturas híbridas.
de cargas complexas e variadas. A Intel e AMD, por exemplo,
estão trabalhando em chips multicore nos quais os núcleos de Estamos na iminência de uma nova plataforma computacional,
processamento são distintos entre si, para possibilitar ganhos a qual poderá representar uma mudança de paradigma na
de desempenho sem bater no teto da dissipação de calor. indústria de TI e possibilitar novas soluções de negócios, abrindo
Mas ainda não há previsão de liberação desses novos chips horizontes para as empresas e para toda a sociedade.
para o mercado.
Para saber mais:
A IBM está trabalhando em um novo servidor da plataforma http://www.redbooks.ibm.com/abstracts/redp4409.html

Technology Leadership Council Brazil


Como ler em cinquenta anos o que foi escrito hoje?
Roberto F. Salomon

Faz relativamente pouco tempo que começamos a usar arquivos • ser mantido por organização sem fins lucrativos, através
em mídia eletrônica para armazenar documentos. Além do papel, de um processo aberto de decisão:
já usamos diversos outros suportes para os nossos documentos
• ser publicado e acessível sem custo, ou a um custo
como madeira, pedra, barro e cera. Ao usar esses suportes
meramente nominal;
nossos antepassados os tornavam indissociáveis do documento
propriamente dito. • garantir o acesso gratuito, sem o pagamento de royalties,
a toda propriedade intelectual do padrão.
Com a chegada da mídia eletrônica, conseguimos separar, pela
primeira vez, o suporte de um documento de seu conteúdo. Assim, Vários padrões se adequam a essa definição comum, dentre
os documentos se tornaram “virtuais”, sendo armazenados em eles o ODF – OpenDocument Format, que define o formato de
arquivos digitais gerados por algum aplicativo. Graças ao suporte armazenamento para documentos eletrônicos textuais.
digital, uma cópia de um documento é idêntica ao seu original. No Brasil, o Governo Federal já reconheceu a importância da
Seria o melhor dos mundos se não houvesse a questão da adoção de padrões que permitam a integração aberta entre os
recuperação e leitura posterior desses documentos. Trabalhamos seus órgãos e os demais poderes e esferas da administração
bem a analogia de uso de softwares para a produção de pública. A edição do e-PING – Padrões de Interoperabilidade
documentos: uma folha de papel em branco exibida na tela de Governo Eletrônico, demonstra que o Governo Federal já
na mesma posição em que estaria uma folha em uma máquina entende ser necessário estabelecer quais os padrões que
de escrever. serão usados para a comunicação com a sociedade. Essa
definição deve ser o mais independente possível de pressões
No entanto, não houve, até recentemente, uma discussão
econômicas de grupos de interesse. Iniciativas como a do e-PING
adequada sobre o formato de armazenamento desses
são estratégicas e necessárias.
documentos, resultando em problemas de compatibilidade
com os quais convivemos até hoje. A vinculação dos formatos Há hoje um consenso sobre sua importância, demonstrado
aos softwares que os criaram tornou-se uma barreira à adoção por eventos como a “Government Interoperability Framework 11
de novas tecnologias e soluções. Global Meeting 2010”, promovida pelo PNUD (Programa das
Nações Unidas para o Desenvolvimento) realizada no Rio em
O problema gerado pela ausência de padronização no
maio de 2010.
armazenamento de documentos é apenas a parte mais visível
da questão. A falta de padronização na comunicação entre Os governantes precisam ter claro que em um mundo cada
os componentes de software que adquirimos é tão grande vez mais digital o Estado não pode se furtar de estabelecer
quanto o número de fornecedores existentes no mercado. o uso de padrões abertos, o que comprometeria seriamente
Enquanto a adoção de soluções que suportem padrões abertos a capacidade de colaboração entre órgãos governamentais
e publicados faz sentido econômico para a iniciativa privada, e entre estes e a sociedade civil, criando obstáculos para a
no setor público essa adoção é vital para a preservação das preservação de investimentos e da memória da nação.
informações do Estado. Para saber mais:
A preocupação com o uso de padrões abertos em documentos http://www.odfalliance.org

oficiais levou a União Européia a publicar uma definição do que


é um padrão aberto. Há várias, mas todas concordam que um
padrão aberto deve:

Technology Leadership Council Brazil


A maneira Lean de se pensar
Diego Augusto Rodrigues Gomes

Vivenciamos um conjunto de mudanças de pensamento em da produção); transporte (movimento de partes desnecessárias


várias esferas do conhecimento. Na economia, muitos órgãos e ao processamento); excesso de processamento (retrabalho);
empresas tentam diminuir suas despesas. No contexto do meio deslocamento (pessoas ou equipamentos se movimentando
ambiente, temos acordos entre países para a redução de gases mais que o necessário para a execução de um procedimento);
de forma a estancar o aumento da temperatura global. Além inventário (estoque de insumos que não estão diretamente ligados
disso, estamos sob crescente incentivo à economia de água, à necessidade atual); defeitos (perda de unidades de produção
energia elétrica e à diminuição da poluição. Também estamos e de tempo gasto para construí-las).
frequentemente criando mecanismos inteligentes para o uso
A busca pela qualidade segue duas estratégias: treinar e
doméstico diário. E o que é comum a tudo isso?
desenvolver a força de trabalho e tornar os processos estáveis
O esforço na redução do consumo de recursos e o seu melhor e capazes de atender às necessidades do cliente. Pessoas
aproveitamento. Com base na cultura e nos princípios de motivadas e que abraçam a cultura e filosofia da empresa são
gerenciamento adaptados do Sistema Toyota de Produção, o coração desse modelo. Cada um é responsável por melhorar
que surgiu no Japão como alternativa ao sistema de produção o fluxo de processos da instituição, sugerindo soluções e novas
em massa, foi criado o termo Lean (enxuto) para descrever abordagens, mesmo que não sejam responsáveis diretos por isso.
os sistemas de produção que buscam fornecer, a um custo
A flexibilidade nesse modelo é fruto do trabalho de profissionais
reduzido, valor aos clientes por meio da melhoria dos fluxos
com múltiplas habilidades, os quais não só conhecem a sua
entre processos.
atividade e sabem operar suas ferramentas, mas também sabem
Ao eliminar-se o desperdício em todos os fluxos que geram executar as atividades de outros profissionais, dando, assim,
valor, criam-se processos que demandam menos esforço, maior fluidez ao fluxo de atividades que compõem a execução
menos espaço, menos capital e que requerem menos tempo dos processos.
para a criação de produtos e serviços. Tudo isso com menos
Esse modelo de pensamento tem sido aplicado com sucesso em
defeitos e com maior qualidade quando comparados aos
12 diversos ramos de atividades, tais como manufatura, distribuição,
processos tradicionais.
gestão da cadeia de suprimentos, desenvolvimento de produtos,
Os cinco princípios norteadores do pensamento Lean afirmam engenharia, entre outros. Mais recentemente, inclusive, tem
que é imprescindível: sido aplicado no processo de desenvolvimento de software.

1. definir o que é valor para o cliente e procurar satisfazê-lo; Em síntese, falar de Lean é falar de maneiras coerentes de se
2. definir o fluxo de valor de maneira a eliminar processos eliminar aquilo que não é necessário. Significa romper com o
que não agreguem ao produto final (eliminar desperdícios); pensamento “quanto mais, melhor”, agregar mais valor com
menos trabalho, reduzir custos, otimizar os tempos de produção
3. dar fluidez aos processos, criando um fluxo contínuo de
e entrega e melhorar a qualidade dos produtos e serviços.
produção, atendendo rapidamente às necessidades do
Em outras palavras, é eliminar tudo aquilo que não agrega valor
cliente (flexibilidade);
e que não é importante ao resultado final. Adotar a filosofia Lean
4. não mais empurrar o produto para o consumidor, e sim, como uma nova maneira de pensar e agir pode ser um bom
fazer com que ele o retire de acordo com sua necessidade;
começo para tornar nosso planeta mais inteligente.
5. buscar a excelência e perfeição (qualidade e melhoria
Para saber mais:
contínua).
http://www.lean.org
A melhoria dos processos se dá não apenas pela redução, http://www.lean.org.br
mas pela eliminação de desperdícios, categorizados em sete Livro: O Modelo Toyota, Jeffrey K. Liker (2005)
tipos: superprodução (produção além da demanda); espera http://agilemanifesto.org/
(períodos de inatividade devido à espera pelo próximo passo

Technology Leadership Council Brazil


Então, você quer trabalhar com Arquitetura de TI?
Cíntia Barcelos

Eu ainda lembro quando, há alguns anos, falei para meu pai Outra forma de entender o que um arquiteto de TI faz é dizer o
que iria mudar de função na empresa em que trabalho há que ele não faz. Ele não é um “super especialista” que conhece
16 anos. Mencionei que tinha conseguido uma excelente profundamente todas as tecnologias, produtos ou serviços,
oportunidade em uma nova área como arquiteta de TI. Ele mas tem bastante experiência e um bom conhecimento sobre
ficou feliz, mas confuso (apesar de ter um doutorado em Física como essas coisas funcionam e como podem ser combinadas.
Teórica), e me disse: “Mas minha filha, você não se formou em
O mais importante da sua atividade é saber enxergar cada
Engenharia?”. Ele até já tinha aceitado eu ter sido contratada
tecnologia ou componente da solução como uma “caixa preta”,
como analista de sistemas, mas virar uma arquiteta era um
com suas entradas e saídas, entendendo o que cada “caixa”
pouco estranho para ele.
é capaz de gerar, muito mais do que saber em detalhes o que
Afinal, o que faz um arquiteto de TI? Ele projeta soluções baseadas acontece lá dentro. Ele não é um gerente de projeto, mas precisa
em Tecnologia da Informação para resolver problemas de negócio, ter conhecimentos básicos dessa disciplina e, geralmente,
as quais comumente integram diversos sistemas e se utilizam de torna-se o braço direito desse outro profissional, pois precisa
múltiplas tecnologias, serviços e produtos. Esse profissional, que entender e orientar a implementação da solução que projetou.
tem um amplo conhecimento técnico e experiência em diversas Ele também não é um consultor, mas precisa conhecer técnicas
disciplinas, consegue identificar e avaliar as possibilidades até e metodologias de consultoria.
chegar à solução que melhor vai atender às necessidades do
E nem preciso dizer que o arquiteto de TI não é o mesmo que
negócio. Por isso é um profissional que deve conhecer bem a
um super desenvolvedor ou um analista de suporte sênior.
indústria e o negócio em que trabalha e, a partir desses contextos,
fazer a conexão com a área de tecnologia. A profissão de arquiteto de TI está em alta e a demanda por
esse profissional segue aumentando. No mercado já existe
Ao projetar uma solução, o arquiteto de TI precisa entender bem
certificação nessa profissão, oferecidas pelo OpenGroup, IASA
o ambiente e os padrões estabelecidos na empresa no qual a
e Zachman, entre outras. Ao me tornar uma arquiteta de TI,
solução será inserida. Na sua caixa de ferramentas estão, além da
encontrei a função e a carreira que sempre almejei. Nunca quis 13
ampla experiência, metodologias de projeto de sistemas, técnicas
largar a área técnica, porque é minha vocação e, de certa forma,
de modelagem, conhecimentos de padrões de arquitetura e
meu grande diferencial. Ao mesmo tempo, como arquiteta de
habilidades de consultoria e gerência de projetos.
TI posso exercer funções de liderança, entender do negócio e
Apesar de possuir conhecimento e ferramentas, o arquiteto da indústria. Ainda não tenho muita certeza se meu pai entende
de TI nunca cria uma solução sozinho, sempre trabalha em exatamente o que eu faço, mas tudo bem, eu também nunca
conjunto com especialistas que possuem conhecimento profundo consegui entender muito bem as publicações da pesquisa dele.
em cada um dos componentes da solução. E é nesse ponto
Acho que vou dar esse artigo para ele ler...
que entram outras qualidades necessárias ao arquiteto de TI:
liderança, comunicação, trabalho em equipe e negociação. Para saber mais:
São principalmente esses conhecimentos não-técnicos que http://www.iasahome.org/web/home/certification

diferenciam esse profissional dos demais.

Technology Leadership Council Brazil


Computação Quântica
Conrado Brocco Tramontini

A computação quântica (CQ) consiste no processamento de representar o estado dos bits com valores 0 ou 1, a CQ utiliza
dados representados por partículas subatômicas e seus estados. partículas e propriedades quânticas superpostas, como átomos
Mas antes de olhar diretamente para a CQ, é necessário observar excitados ou não ao mesmo tempo, fótons que podem estar
um pouco dos princípios da mecânica quântica, a base de simultaneamente em dois lugares, elétrons e pósitrons ou prótons
diversos ramos da física e da química, cujos estudos começaram e neutrons com estados sobrepostos.
no início do Século XX, com os trabalhos do alemão Max Planck
Uma molécula de um único transistor pode conter milhares
e do dinamarquês Niels Bohr, premiados com o Nobel de Física
de prótons e nêutrons que podem ser usados como qubits.
em 1918 e 1927, respectivamente.
A superposição torna possível representar muito mais dados,
Os conceitos da Mecânica Quântica são tão incomuns que aumentando a capacidade dos canais de comunicação
o próprio Einstein não aceitou essa teoria como completa. da informação, permitindo à CQ efetuar processamentos
Niels Bohr já advertira, em 1927, que “qualquer um que não se exponencialmente mais velozes do que a computação tradicional
chocasse com a teoria quântica não a compreenderia”. Segundo porque, ao invés de processar um dado por vez, irá “raciocinar”
a Mecânica Quântica o estado de um sistema em bloco, processando vários dados ao mesmo
físico é o conjunto de todas as informações que tempo, como se existisse um só.
podem ser extraídas desse sistema ao se efetuar
A Google demonstrou em dez/2009, no
alguma medida, incluindo a soma desses estados.
controverso chip quântico desenvolvido pela
É exatamente isso que você entendeu, o estado
D-wave, um sistema de busca em imagens que,
de um sistema físico é o conjunto de todos
por usar superposição, se mostrou mais rápido do
os seus possíveis estados. Esse fenômeno
que os atuais. É como se você pudesse procurar
é chamado de “superposição” e é uma das
suas meias em todas as gavetas, de uma só vez.
bases para a CQ.
Outra importante aplicação é a criptografia
Um experimento teórico conhecido como “o gato
14 quântica na qual um servidor emaranha o qubit
de Schröndinger”, demonstra a estranha natureza
B ao qubit A e os envia respectivamente para as
das superposições quânticas, nele um suposto
máquinas A e B e em seguida, o que a máquina
gato está preso a uma caixa, com um frasco de
A escreve em seus qubits é replicado para os
veneno que será liberado caso ocorra uma reação em uma
qubits da máquina B, sem oferecer risco de ser interceptado
partícula quântica. O gato tem 50% de chance de estar vivo ou
uma vez que não se utiliza de nenhum meio ou contato físico
morto. Já para a mecânica quântica, entende-se que devido
mas sim de um outro fenômeno chamado, não por acaso, de
a superposição de estados da partícula, o gato está vivo e
teletransporte.
morto ao mesmo tempo, esperando apenas que a influência do
observador defina seu estado. Aqui aparece outra importante Os sistemas quânticos ainda apresentam dificuldades para serem
característica, o Princípio da Incerteza de Heisenberg, que diz controlados pois se mostram sensíveis às mínimas interferências
que não podemos determinar simultaneamente, e com precisão, e também porque o tempo em que se consegue controlar as
a posição e o momento de uma partícula. Para livrar o bichano partículas ainda é muito pequeno. No entanto, a despeito desses
dessa situação e saber o que aconteceu, deve-se abrir a caixa desafios, existe um consenso de que o desenvolvimento dessa
e espiar. Nesse momento é feito uma medida sobre o estado tecnologia vem ocorrendo mais rápido do que se imaginava
do sistema, que colapsa em um único estado (vivo ou morto). inicialmente. Com a computação quântica, podemos dizer que
Até que isso ocorra os estados ficam superpostos. a computação clássica está viva e morta ao mesmo tempo?

Se você ficou meio chocado com o que leu até aqui, significa Para saber mais:
que estamos no caminho certo... http://www.fisica.net/computacaoquantica/

http://qubit.lncc.br/index.html
Enquanto um computador clássico utiliza pulsos elétricos para

Technology Leadership Council Brazil


O desafio da modernização de sistemas legados
Victor Amano Izawa

No cenário atual, a maioria das empresas Quando as empresas decidem adotar uma estratégia e uma
precisa modernizar seus sistemas para política de modernização em seus sistemas, alguns fatores
atender suas necessidades de negócio. devem ser considerados, tais como a adoção de um modelo de
Essas atualizações nem sempre são simples processo de desenvolvimento de software e o gerenciamento
e muitas vezes necessitam implementar grandes de escopo e risco.
mudanças, afetando partes desses sistemas que podem ser
Inicialmente deve-se avaliar se existe algum modelo de processo
essenciais ao negócio.
de desenvolvimento de software vigente que possa atender às
A modernização pode ser necessária para o cumprimento de necessidades da empresa ou se será adotado um novo modelo,
leis regulatórias ou mesmo para cortar gastos e otimizar os como o Open Unified Process (OpenUP) ou Rational Unified
processos de negócio, com os quais as empresas visam manter- Process (RUP), para que a modernização seja feita de maneira
se competitivas num mercado cada vez mais agressivo. organizada e otimizada.

Quando se trata de modernização de sistemas legados, o custo Como muitas necessidades são apresentadas como melhorias no
é a principal causa que impede as empresas de mudarem seus sistema, é importante que cada uma seja analisada de maneira
sistemas. E mesmo que esses gastos sejam considerados como que o escopo definido não seja muito alterado. A inclusão de
um investimento nos negócios da empresa, existe ainda um outro uma simples melhoria pode aumentar bastante a complexidade
fator crítico, relacionado ao risco do processo de modernização, da modernização e, consequentemente, impactar nas demais
o que contribui para desencorajar muitas ideias ou hipóteses partes do sistema. E isso significa considerar novos riscos e
de modernização. aumentar o custo de desenvolvimento. Portanto, gerenciar riscos
é muito importante para que determinadas modificações não
Nenhuma empresa quer arriscar seus negócios e ficar meses
impliquem em complicações futuras.
aguardando a finalização do processo de modernização. Mas
isso significa que as empresas devem sacrificar seus negócios O desafio de manter-se atualizado pode ser enfrentado desde
e se tornarem menos competitivas? Como contornar isso de que se saiba gerenciar os riscos, os custos e o processo como 15
maneira a minimizar esses riscos? um todo adequadamente. No mercado atual, uma empresa deve
demonstrar competência para sempre inovar e estar à frente da
Uma solução adotada por várias empresas é modernizar
concorrência, enfrentando com sabedoria os novos desafios.
sua infraestrutura de sistemas utilizando-se de arquiteturas
distribuídas (clusters de servidores de alto desempenho). Sendo Para saber mais:
assim, as empresas podem manter seus sistemas legados Livros: Legacy Systems: Transformation Strategies (2002) – William M. Ulrich; Prentice Hall PTR
com desempenho e capacidade elevados, fazendo uso de Modernizing legacy systems: Software technologies, engineering processes, and business practices
(2003) – Robert Seacord, Daniel Plakosh, Grace Lewis; Addison-Wesley
computadores com alto poder de processamento, discos rígidos
de rápida resposta para grandes volumes de dados e redes
de fibra óptica com alta capacidade de transferência de dados,
por exemplo.

Technology Leadership Council Brazil


Tecnologia para Cidades Inteligentes
José Carlos Duarte Gonçalves

Há algum tempo falamos que a globalização está deixando o Uma das questões mais críticas é o transporte, com seus
mundo cada vez mais plano, com menos barreiras geográficas. engarrafamentos caóticos nas grandes cidades. Só em São
Mas estamos começando a perceber um fenômeno ainda maior: Paulo, o custo do congestionamento, levando-se em conta
o planeta também está se tornando mais inteligente. o tempo ocioso das pessoas nos horários de trânsito mais
intenso, passa de R$ 27 bilhões por ano. Se forem considerados
Quando comecei minha carreira em TI, há 33 anos, a memória
também os gastos referentes ao consumo de combustível e o
de um computador IBM S/370 era capaz de armazenar até
impacto dos poluentes na saúde da população, teremos um
64Kbytes de informação. Atualmente qualquer telefone celular
custo adicional anual de R$ 7 bilhões.
possui milhares de vezes essa quantidade de memória.
Como resolver? Cidades como Estocolmo, Cingapura, Londres e
O alcance da tecnologia também deu um enorme salto ao longo
Brisbane já estão buscando soluções inteligentes para gerenciar
desse tempo. Hoje já existe mais de quatro bilhões de usuários
melhor o trânsito e reduzir a poluição. As iniciativas vão desde
de telefonia celular no mundo, o que representa quase 70% da
a previsão do tráfego aos sistemas de pedágio inteligentes e
16 população mundial. Até o final de 2010, estima-se que haverá
dinâmicos. Em Estocolmo, com a implementação do pedágio
mais de um bilhão de transistores para cada ser humano, cada
urbano, o congestionamento já foi reduzido em 25%, a redução da
um custando um décimo de milionésimo de centavo de dólar.
poluição chegou a 40% e o uso de transporte público aumentou
Estima-se também que haverá mais de 30 bilhões de etiquetas
em 40 mil pessoas/dia.
de RFID (identificação por rádio frequência) em circulação, além
de dois bilhões de pessoas conectadas à Internet. Os líderes de governo e das instituições, precisam identificar as
oportunidades certas e obter os investimentos necessários por
O que isso tudo significa? Que pela primeira vez na história, as
meio de incentivos e programas de apoio. É importante ressaltar
infraestruturas digitais e físicas do mundo estão convergindo
que tornar-se mais inteligente não se aplica apenas às grandes
e praticamente qualquer coisa pode se tornar digitalmente
corporações, mas também às empresas de pequeno e médio
conectada a um baixo custo. O mundo está caminhando para
porte que são os motores de nosso crescimento econômico.
ter um trilhão de coisas conectadas – a “Internet das Coisas”
feita de carros, geladeiras, prédios, rodovias, etc. Cada vez mais, seremos medidos pela maneira como aplicamos
nosso conhecimento e nossa capacidade para resolver os
Mas para termos um mundo realmente mais inteligente temos
grandes problemas. É um desafio que devemos entender e
que cada vez mais nos preocupar com o meio ambiente, a
receber de braços abertos, de maneira a buscar resolver os
sustentabilidade do planeta e o não esgotamento dos seus
problemas e tornar as cidades mais inteligentes.
recursos naturais. Temos hoje a oportunidade de usar a tecnologia
para resolver ou minimizar os grandes problemas da sociedade, Para saber mais:
tais como congestionamentos de trânsito, conservação de água http://www.ibm.com/innovation/us/thesmartercity
potável, distribuição de alimentos e energia, serviços de saúde, http://cities.media.mit.edu/
entre outros. http://www.smartcities.info/

Technology Leadership Council Brazil


Tudo como Serviço
Sergio Varga

A evolução e maturidade das tecnologias de virtualização, os Um fator importantíssimo para a explosão dessas aplicações é
avanços de desempenho e capacidade dos servidores e redes, o cloud computing, que está se tornando uma realidade. Várias
e o aumento de aplicações compartilhadas estão permitindo empresas já estão disponibilizando esse tipo de infraestrutura,
às empresas disponibilizarem uma vasta gama de soluções no como a Amazon que em 2006 lançou o Elastic Compute Cloud,
modelo “as a Service” (aaS). Aplicações que até há pouco tempo e a IBM que em 2009 lançou o Cloudburst.
atrás não se imaginava que poderiam ser implementadas nesse
No entanto, para a disseminação do modelo “as a Service”, existem
modelo agora já estão disponíveis. Como um exemplo, no final
quatro grandes desafios, identificados em outra pesquisa feita pelo
de 2009 a IBM lançou no mercado o TivoliLive, um ambiente
IDC ainda em 2008: segurança, desempenho, disponibilidade e
de monitoração disponível no modelo “Monitoring as a Service”.
integração. Aumentar a segurança das soluções implementadas
Noutro exemplo temos as já conhecidas Box.net e Salesforce.com,
através da Internet e garantir a privacidade das informações
que integraram o modelo de armazenamento de documentos
é a maior prioridade para empresas que proveem aplicações
de uma com o de gestão de relacionamento com clientes da
no modelo “as a Service”. A segunda maior preocupação é
outra, oferecendo novos serviços
disponibilizar aplicações com um
combinados no modelo “Software
desempenho aceitável e para isso,
as a Service” (SaaS).
além de servidores de grande
Communication as a Service capacidade, também podem ser
(CaaS), Infrastructure as a Service necessários vários pontos de
(IaaS), Platform as a Service presença espalhados pelo mundo
(PaaS), Service Management as para minimizar a latência de rede.
a Service (SMaaS) são alguns Para ter alta disponibilidade nesses
outros exemplos desse modelo de ambientes são necessários planos
serviços que tem crescido muito de continuidade e monitoração
nos últimos anos. Esse mercado, ininterrupta. Outro desafio é habi- 17
segundo a previsão do IDC, saltará litar soluções que sejam fáceis de
dos US$ 17.4 bilhões em 2009 para ser integrar com os sistemas dos
mais de US$ 44 bilhões em 2013. Outra pesquisa, da Saugatuck clientes, eventualmente em nuvens diferentes.
Technologies, afirma que ao fim de 2012, 70% das pequenas
Apesar dos desafios, a facilidade de implementação, o baixo
e médias empresas e 60% das grandes terão pelo menos uma
custo sugerido e a inexistência de investimentos em hardware
aplicação SaaS, ou seja, esse modelo não será restrito a um
e software são grandes atrativos para os clientes adotarem
determinado tamanho de empresa.
aplicações oferecidas nesse modelo.
O primeiro grande grupo de aplicações a entrar no modelo “as a
O que provavelmente veremos num futuro próximo? As empresas
Service” foram as de CRM, Recursos Humanos e Procurement,
de TI batalhando nesse nicho de mercado e os consumidores
ou seja, principalmente aquelas voltadas para usuários finais.
deixando de investir em ativos de TI e usando soluções de
A partir de então, outras começaram a serem portadas para
negócio como serviços.
esse modelo e hoje temos uma enorme lista de aplicações, até
mesmo aquelas desenvolvidas localmente. Outro grande uso Para saber mais:
das soluções aaS é para projetos-piloto e análise de aplicações http://blogs.idc.com/ie/?p=543

a serem implementadas na empresa. www.ibm.com/services/us/gts/flash/tivoli_live.swf

http://www.saugatech.com/

Technology Leadership Council Brazil


O Nevoeiro e o Sapo
Wilson E. Cruz

Um dos fatos mais perturbadores de nosso tempo é o excesso assunto, e para o próximo. Se, por outro lado, as respostas
de estímulos que hoje passam por nossos olhos e ouvidos e, com deixaram você um pouco incomodado ou ressabiado, vale a
alguma sorte, invadem nosso cérebro. A todo momento aparece pena refletir sobre alguns pontos (refletir, não necessariamente
alguém dizendo: “É muita informação! Não dá prá gerenciar!”. concordar):

O fenômeno, muito novo, vertiginosamente crescente, e já no • Saia da armadilha de que “o mais acessado é o melhor”:
limiar da sanidade, tem perturbado, tanto no âmbito pessoal em qualquer site da moda, aparece no topo da lista de
quanto no profissional, a maioria das pessoas “conectadas”. recomendações a música mais baixada, a notícia mais lida,
o vídeo mais assistido. Quem garante que a quantidade
Para me ajudar no diagnóstico da situação e abrir a porta para
(sobretudo a quantidade gerada por outros) lhe garante
alguns temas de reflexão, uso aqui Dee Hock, fundador do
qualidade?
conceito que define a Organização VISA, e seu fantástico livro
“Nascimento da Era Caórdica”: “Com o tempo, os dados vão se • Crie, cultive e conserve a sua lista de fontes, baseada em
transformando em informações, as informações em conhecimento, seu sistema de valores e preferências. Você paga suas
o conhecimento em compreensão contas, portanto não é escravo da
e, depois de bastante tempo "enciclopédia universal” dos outros.
(...) a compreensão pode se
• Preste atenção, e, preferen-
transformar em sabedoria.
cialmente, formalize suas re-
(...) As sociedades nativas (...)
gras e critérios de mérito. O que
tiveram tempo para desenvolver
lhe é bom? O que faz diferença
a compreensão e a sabedoria.”.
para você?
Perceba que a palavra “tempo”
aparece três vezes. • Reserve tempo para discutir.
Já foi dito aqui, mas vale
18 Aproveitando o quinto aniversário
repetir que no final da frenética
do Mini Paper Series, e sua
sequência que vai do ruído
tradição como instrumento de
à sabedoria, a discussão é o
divulgação, arrisco algumas
filtro final.
questões e ideias que talvez
tragam alguma luz aos que buscam direção no meio da névoa. • E, finalmente, desacelere. Pre-me-di-ta-da-men-te. Cal-
Comecemos pelas questões: cu-la-da-men-te. Perceba que bem perto do solo a névoa
é menor, e dê pequenos pulos, mais curtos e certeiros,
• Quantos Mini Papers você já leu? E, mais importante, em
gastando mais tempo no solo, para olhar em volta e avaliar
quantos deles você buscou a informação do quadrinho
o mundo ao redor.
chamado “Para saber mais”?
Mas no meio disso, como ficam os aniversariantes, o TLC-BR
• Por que razão o resultado de suas pesquisas, naqueles
(seis anos!) e o Mini Paper Series (cinco anos)? Eles podem ser
sites famosos, saem naquela ordem, mesmo que todas as
disseminadores de informação e conhecimento útil, o que já é
cem primeiras respostas tenham 100% de aderência ao
bastante neste nevoeiro denso e baixo. Mas eu torço por mais.
seu argumento de pesquisa?
Eu torço por vê-los como a “sociedade nativa” de Dee Hock,
• E, finalmente, o que faz um sapo quando está no meio de buscando o pensamento, a reflexão, e com isso a compreensão
um nevoeiro? e a sabedoria.

Se suas respostas não lhe trouxeram a sensação de estar apenas Para saber mais:
arranhando a superfície dos assuntos mais importantes de sua http://www.onevoeiroeosapo.blog.br
vida, não perca tempo com o resto deste artigo. Vá para o próximo HOCK, Dee – “Nascimento da Era Caórdica” – São Paulo: Editora Cultrix, 1999

Technology Leadership Council Brazil


Boas práticas para a elicitação de requisitos
Cássio Campos Silva

A atividade de elicitação de requisitos é uma das mais importantes


práticas da engenharia de software. Através dela, busca-se o
entendimento das necessidades do usuário e dos requisitos
de negócio, de forma a endereçá-los posteriormente através
de uma solução tecnológica.

Algumas literaturas adotam o termo elicitação, ao invés de


levantamento, pois essa prática não trata simplesmente o
levantamento de requisitos, mas também da identificação dos Experiências passadas: Utilize de forma positiva as experiências
fatos que os compõem e os problemas a serem solucionados. Por vividas anteriormente para ajudar a melhor compreender o
ser uma atividade interpessoal, essa prática é muito dependente problema. Evite considerar que o problema atual é igual a algum
da capacidade de entendimento do analista e da habilidade do outro que tenha sido resolvido em um cliente ou projeto passado.
usuário em expressar as suas necessidades.
Documentação: descreva o problema de forma clara
Em uma pesquisa realizada pelo Standish Group foram mapeados e objetiva. Em caso de dúvidas, consulte o cliente e
cinco fatores críticos para o sucesso de um projeto: Envolvimento evite inferências. Procure usar exemplos citados pelos
do Usuário; Suporte Gerencial Executivo; Descrições claras dos stakeholders. A adoção de diagramas e figuras sempre
requisitos; Planejamento adequado; Expectativas realísticas. ajuda na documentação e entendimento dos requisitos.
Repare que os fatores grifados são aqueles diretamente A criação de protótipos também contribui para o entendimento
relacionados aos requisitos. comum da solução proposta.

Considerando-se a complexidade na execução das atividades Validação: Faça com que os stakeholders validem a documentação,
de elicitação de requisitos e a dependência do relacionamento verificando o entendimento do problema e as melhorias desejadas
entre os envolvidos, algumas boas práticas devem ser adotadas e eventualmente façam solicitações de mudanças.
pelos analistas de forma a facilitar o processo: 19
Ao final do processo deverá ser possível demonstrar de maneira
Preparação: Prepare-se previamente e de forma adequada para documental o entendimento do problema, as necessidades
as atividades planejadas, as quais são geralmente realizadas do cliente e as oportunidades de melhorias. Isso delimitará
através de entrevistas, questionários, brainstorms e workshops. o escopo do projeto e deverá nortear o desenho da solução,
assim como o planejamento do projeto.
Stakeholders: Mapeie (com antecedência) quem serão os
participantes do processo, quais os seus papéis no projeto e A mensuração do tamanho, complexidade e riscos de um projeto
na organização e quais são os seus níveis de conhecimento dependerá da qualidade e coerência dos requisitos. É crucial que
e influência. É imprescindível que as pessoas corretas sejam essa atividade seja executada de forma criteriosa e detalhada,
envolvidas o quanto antes. pois qualquer falha nesse momento poderá gerar projetos mal
sucedidos, perdas financeiras e clientes insatisfeitos.
Postura: Busque sempre a efetividade nas comunicações, assim
como procure demonstrar ponderação durante as situações Para saber mais:
de conflito. http://en.wikipedia.org/wiki/Requirements_elicitation

http://www.volere.co.uk
Entendimento: Procure focar no entendimento do problema e
Livro: Requirements Engineering 2nd Edition - Ken Jackson
evitar conclusões precipitadas. Nesse primeiro momento o mais
importante é saber escutar.

Technology Leadership Council Brazil


O homem que enxergou a forma das coisas
Fábio Gandour e Kiran Mantripragada

Benoît Mandelbrot faleceu no dia 14 de outubro de 2010. Poderia A Geometria Fractal estuda objetos com propriedades
ser apenas mais um nome exótico da ciência mas ele foi bem interessantes, como por exemplo, o Tapete de Sierpinski, que
mais do que isso. Filho de poloneses com ascendência judaica, é o resultado da remoção sucessiva do quadrado central, após
Mandelbrot nasceu em Varsóvia, em 1924, no seio de uma família divisão do quadrado maior original em nove quadrados menores
com forte tradição acadêmica. Estudou inicialmente na França e iguais, formando um objeto com área que tende a zero e
e depois nos Estados Unidos. Em 1958, começou a trabalhar perímetro que tende ao infinito. A imagem mostrada abaixo é
como cientista da IBM T.J. Watson Research Lab, onde chegou uma extrapolação do “Tapete” para um “Cubo de Sierpinski”.
aos títulos de IBM Fellow e Cientista Emérito. Observem que a quebra [fratura] de uma dimensão em outra
menor, de mesma forma e contida dentro da primeira, cria uma
Benoît Mandelbrot foi o matemático que melhor entendeu e
dimensão sem fim.
divulgou uma nova formulação
para representar os fenômenos Benoît Mandelbrot pode ter
da natureza. Seu entendimento sido vítima da beleza de sua
levou à criação da palavra “fractal”, própria criação pois as imagens
inspirada no Latim fractus, que construídas a partir da Geometria
significa fraturado, quebrado. Fractal tiveram um forte apelo para
Ele afirmava que a natureza é o mundo das artes.
regida pela Geometria Fractal,
Este apelo fez com a Geometria
pois a Geometria Euclidiana não
Fractal fosse vista e usada mais
conseguia descrever formas
como uma ferramenta de ilustração
naturais mais complexas, como
do que como um modelo matemático
nuvens, árvores, o traçado dos rios
para representação da natureza. Por
e cadeias de montanhas.
exemplo, a busca da palavra “fractal”
20
A Geometria Euclidiana clássi- no Google Images apresenta mais
ca é construída a partir de 3 de 1 milhão de resultados, todo eles
elementos: o ponto, a reta e o de grande apelo visual.
plano. O ponto não tem dimen-
Por ser matemático, Mandelbrot
são, ou seja, é um elemento zero-dimensional. A linha
nunca foi considerado um candidato ao Prêmio Nobel, pois
por sua vez, tem uma única dimensão, o comprimento, e portanto,
não existe essa categoria na premiação. Mas a utilização
pode apresentar uma grandeza mensurável. Finalmente, o plano
prática da Geometria Fractal poderá, no futuro, reconhecer
apresenta duas dimensões, o comprimento e a largura. Com
a sua contribuição para outras áreas, como a Física ou a
estes 3 elementos, Euclides de Alexandria, que viveu entre 360
Economia. Se alguém mostrar, por exemplo, que a evolução
e 295 A.C., construiu a Geometria Euclidiana.
das crises financeiras também tem um comportamento fractal,
Alguns matemáticos, como Bernhard Riemann, observaram que a justiça terá sido feita. Em outra linha, Stephen Wolfram
os conceitos descritos por Euclides podem ser extrapolados e a teoria dos Autômatos Celulares, explicada no seu livro
para objetos de “n” dimensões, como hiperesferas, hiperplanos, “A New Kind of Science”, pode ser o começo da correção desse
simplex n-dimensionais e outras “figuras”. equívoco histórico.

Mandelbrot, por sua vez, observou de forma brilhante que Para saber mais:
existem dimensões “quebradas”, ou seja, que realmente existem http://tinyurl.com/34f59ty
objetos “n-dimensionais”, onde “n” é um número real. Assim, se http://www.math.yale.edu/mandelbrot/
uma reta apresenta uma única dimensão e o plano apresenta http://www.wolframscience.com/
duas dimensões, como seria um objeto “1,5 dimensional”? De
fato, Mandelbrot mostrou que tais objetos existem e podem ser
descritos pela teoria que ele chamou de Geometria dos Fractais.

Technology Leadership Council Brazil


Métricas de Software
Daniela Marques

É indiscutível que qualidade é um item importante para qualquer As métricas de software auxiliam diretamente no planejamento
produto ou serviço. Um software usado como ferramenta para do projeto. Por exemplo, a métrica “LOC (Lines of Code)” é
suportar diversas linhas de negócios nas empresas também deve utilizada para dimensionar prazo e custo através da contagem
apresentar, a cada versão, níveis mais elevados de qualidade. de linhas de código.
É fato também que novas versões são exigidas para atender
A produtividade durante cada teste (derivada do tempo de
às novas demandas, assim como para oferecer novidade aos
execução) e o número de defeitos encontrados trazem como
clientes. Essas afirmações trazem à tona a questão de como
benefício a informação necessária para a estimativa de
aumentar a produtividade no desenvolvimento de software
finalização do projeto e do esforço exigido em cada fase de
mantendo ou elevando os padrões de qualidade.
testes. A quantidade de defeitos encontrados também fornece
Uma das ferramentas que a engenharia de software utiliza são as dados para a determinação da qualidade do software (medida
métricas de software. Essas métricas podem ser consideradas indireta), assim como a análise da causa-raiz dos defeitos ajuda
como um conjunto de atributos, previamente documentados e a formalizar um plano de melhorias para as futuras versões (veja
conhecidos do ciclo de desenvolvimento de software. exemplo no quadro).

Apesar da existência da Diversas são as métricas


norma IEEE 1061-1998, ain- existentes e as suas apli-
da persiste uma falta de con- cações no ciclo de vida de um
senso na utilização dessas software. Cabe ao gerente de
métricas, ainda que poucos projeto coordenar as ações
duvidem que elas sejam para determinar o padrão de
essenciais para o processo qualidade requerido e definir
de desenvolvimento de qual- quais elementos devem ser
quer software. Afinal, com as medidos e monitorados
21
métricas é possível realizar durante esse ciclo. A
análises nas informações coleta dessas informações
coletadas, de forma a poder acompanhar o desenvolvimento permite não só um melhor acompanhamento do processo
de um software, traçar planos para manter o cronograma do de desenvolvimento de um software, mas também a análise
projeto em dia e atingir o nível desejado de qualidade. qualitativa desse software como um produto. A base histórica
das métricas permite que futuras propostas de mudança ou
Em relação à qualidade, é importante ressaltar que todos os
criação sejam mais precisas, visto que projetos similares tendem
envolvidos no processo de desenvolvimento de um software
a passar pelos mesmos problemas e soluções.
devem participar na determinação do seu respectivo nível de
qualidade, assim como no tratamento das inconformidades Para manter ou elevar o nível de qualidade de um software
no atendimento aos requisitos inicialmente especificados. As é essencial medir e monitorar durante todo o seu ciclo de
métricas de software podem ser classificadas em medidas diretas desenvolvimento. As extrações de métricas fornecem não só
(quantitativas) e medidas indiretas (qualitativas). As medidas uma visão da situação real mas, principalmente, permitem
diretas são aquelas que representam uma quantidade observada, planejar e tomar providências na busca de melhoria contínua.
tais como custo, esforço, número de linhas de código, tempo
Para saber mais:
de execução e número de defeitos. Já as medidas indiretas
http://www.kaner.com/pdfs/metrics2004.pdf
são aquelas que exigem análise e estão relacionadas com a
http://standards.ieee.org/findstds/standard/1061-1998.html
funcionalidade, qualidade, complexidade e manutenibilidade.

Technology Leadership Council Brazil


Gestão por Competências: é hora do C.H.A.
Pablo Gonzalez

Podemos afirmar que gerir pessoas é uma ciência em constante Cabe ao RH definir a matriz de competências requeridas
evolução e repleta de desafios. Neste contexto, um modelo que juntamente aos gestores de cada área. Outro fator essencial
vem se tornando cada vez mais notório nas organizações é a é manter a comunicação ativa durante todo o projeto, a fim
chamada gestão por competências, na qual o objetivo principal de esclarecer os objetivos e manter os avaliados informados.
é melhorar o preparo dos colaboradores em busca de maior É importante, ainda, salientar que a falta de preparo das
produtividade e adequação ao negócio, valorizando assim o pessoas para avaliar e dar feedback e a resistência de alguns
capital intelectual da organização. colaboradores podem dificultar a adoção do modelo. No entanto,
tal dificuldade pode ser mitigada através da capacitação prévia
Com base nesta premissa, gerir competências significa
e conscientização.
coordenar e incentivar os colaboradores a reduzirem os gaps
(necessidades de melhoria), saber o que eles são capazes de O uso da tecnologia pode ser um acelerador, já que auxilia na
executar (competências atuais) e entender o que a empresa identificação e armazenamento histórico das competências,
espera deles (competências requeridas). além de permitir a geração de gráficos e relatórios para análise.

O termo “competência” pode ser representado Seguindo esse modelo a empresa poderá
por três propriedades correlacionadas, estruturar melhor os papéis profissionais e
resumidas na sigla C.H.A. Conhecimento, competências fundamentais para o negócio,
Habilidade e Atitude. O Conhecimento aumentar a eficácia na execução das tarefas,
refere-se à assimilação de informações identificar talentos e garantir que seus
que a pessoa acumulou no decorrer da profissionais apresentem os diferenciais
vida e que causam impacto sobre seu competitivos exigidos pelo mercado.
julgamento ou comportamento — o saber. Já
Assim, a gestão das competências é flexível
a Habilidade refere-se à aplicação produtiva
o bastante para ser adotada em empresas de
do conhecimento — o saber fazer. Por fim, a
22 qualquer porte, desde pequenas organizações
Atitude refere-se à conduta da pessoa em
até multinacionais, mostrando ser viável e
situações distintas e na sociedade — o agir.
eficiente em múltiplos cenários.
Para exemplificar a aplicação deste conceito em uma organização,
Empresas como Coca-Cola, Embraer, IBM, Petrobras e Shell, entre
vamos imaginar que numa escala de zero a dez, a sua habilidade
muitas outras, já adotaram medidas voltadas para a gestão por
em “Negociação” seja seis, e, supondo que o grau mínimo
competências e relataram melhorias significativas em termos de
requerido pela empresa seja dez, podemos afirmar que você
eficácia na execução das tarefas, reconhecimento e motivação
tem um gap de valor quatro nesta competência.
dos funcionários, entre outros benefícios.
Com base nesse resultado, e, juntando-se os resultados de
Em suma, cabe à empresa utilizar esse modelo num ciclo de
outras técnicas de análise de desempenho como o Feedback
melhoria contínua no qual, a cada novo projeto ou ciclo de
360º, cria-se um plano de redução de gaps, através do qual a
avaliação, novos indicadores deverão ser criados e os antigos
empresa vai sugerir como e quando esses gaps serão trabalhados.
reavaliados, de forma a mensurar os resultados obtidos e
O intuito é aprimorar as competências existentes de maneira
planejar os próximos passos. E é dentro desse contexto que
alinhada aos objetivos estratégicos da organização, através de
a gestão por competências busca a excelência corporativa e
um plano de desenvolvimento profissional individual.
a satisfação daqueles que representam o maior bem de uma
A implementação da gestão por competências não é complexa, empresa: as pessoas.
porém requer alguns métodos e instrumentos específicos. Ter
Para saber mais:
a missão, visão, valores, objetivos estratégicos, e processos
http://slidesha.re/19HNtL
bem definidos são alguns dos passos fundamentais para a
http://bit.ly/fMylgE
sua adoção.
http://www.gestaoporcompetencias.com.br

Technology Leadership Council Brazil


Daily Scrum para todos!
Renato Barbieri

Hora do almoço no A ideia não é transformar esses momentos em meras reuniões


Morumbi Shopping em de status, mas compartilhar o que cada um já fez e ainda irá
São Paulo. Cheguei bem fazer para alcançar o objetivo comum do grupo. Questões e
cedo pois, como sabem problemas são apenas citados resumidamente e seus detalhes
os frequentadores dos e soluções deverão ser tratados externamente com as pessoas
restaurantes desse shop- apropriadas.
ping, essa é a única forma
A metodologia Scrum prevê um agente facilitador na equipe,
de garantir lugar nas mesas
o qual tem papel fundamental na Daily Scrum: o de Scrum
maiores quando não há
Master. Ele age como moderador das reuniões e guardião da
reserva. No restaurante es-
metodologia, não permitindo que discussões se estendam além
colhido, garçons e maitres
do tempo e do escopo determinado. Ele mantém o foco no que
estão reunidos num círculo,
é necessário e alerta para exageros e distrações.
todos em pé. Os maitres
conduzem a rápida reunião A prática da Daily Scrum pode ser adotada em muitas situações
com orientações gerais e algumas específicas. além do desenvolvimento de software. Temos exemplos práticos
de seu uso em equipes de suporte, e como mostra o exemplo
Alguns dos garçons são novos e são apresentados ao time, que
no começo deste artigo, restaurantes também a utilizam, de
lhes dá as boas-vindas. Alguns garçons comentam situações,
forma adaptada às suas necessidades, mas mantendo o objetivo
tiram dúvidas rápidas e em dez ou quinze minutos a reunião está
primordial: a colaboração no trabalho em equipe.
encerrada. Isso ocorre diariamente em todos os restaurantes
da rede, segundo me informou um dos maitres. Corta a cena. E por que não adaptar uma boa ideia?

O Movimento Ágil nasceu como uma iniciativa de desenvolvedores É comum pensarmos em metodologias como camisas-de-
de software com o objetivo de encontrar alternativas aos métodos força, que ao invés de apoiar e ajudar os profissionais, acabam
23
tradicionais de desenvolvimento que tornassem essa atividade por restringir ações e inibir a criatividade. Esse é um conceito
mais leve, mais ágil, e culminou com a publicação do Manifesto ultrapassado e o Movimento Ágil quebrou esse paradigma.
Ágil (Agile Manifest) em fevereiro de 2001. As melhores práticas são maleáveis por princípio, e permitem a
Entre as novas metodologias que surgiram a partir desse revisão de seus conceitos e implementações. A Daily Scrum não
movimento, a Extreme Programming (XP) prega como um dos é exceção e nem mesmo precisa ser diária, como o nome original
seus príncipios básicos reuniões diárias, de no máximo quinze sugere, mas deve ser frequente, e o mais importante de tudo:
minutos, na qual todos os participantes permanecem em pé que esses encontros resultem na união de seus participantes
e utilizam esse momento para compartilhar experiências e e assegure, para cada um deles, que todos colaborem para
dificuldades. alcançar um objetivo comum.

Outra metodologia ágil, a Scrum, também incentiva as reuniões Para saber mais:
diárias e rápidas conhecidas como Daily Scrum Meetings (ou http://www.agilemanifesto.org

simplesmente Daily Scrum), com o mesmo propósito do exemplo http://www.scrumalliance.org

anterior: compartilhar experiências e dificuldades de maneira http://www.extremeprogramming.org

rápida, ágil e frequente.

Numa Daily Scrum, três perguntas básicas devem ser respondidas


por cada participante:

• O que foi feito desde a última reunião?

• O que pretendo fazer até a próxima reunião?

• O que me impede de prosseguir?

Technology Leadership Council Brazil


Como agradar ao cliente que contrata serviços?
Rosemeire Araujo Oikawa

Imagine as seguintes situações do cotidiano: Para se ter SLAs bem definidos os seguintes aspectos, devem
ser levados em consideração:
• Ficar sem toalhas por quase um dia inteiro num quarto de
hotel ao voltar da praia; • Conhecer as necessidades dos usuários do serviço (usuário
é quem utiliza o serviço, e cliente é quem paga);
• Receber o seu carro do manobrista com arranhões após
um jantar perfeito num restaurante; • Entender como o serviço suportará os negócios do cliente
e os impactos que lhes poderá causar;
• Esperar dez minutos para ser atendido por um Call Center
e não conseguir solucionar seu problema. • Estabelecer níveis alcançáveis e que possam, de fato, ser
medidos;
A lista de situações adversas que podem ocorrer quando
contratamos serviços é enorme. E com os consumidores cada • Estruturar o acordo com um pensamento de provedor de
vez mais exigentes e conscientes dos seus direitos, a tendência serviços e não de vendedor de produtos;
é que essa lista continue a crescer. As empresas prestadoras
• Criar um modelo de custos que suporte os níveis de serviço
de serviço precisam estar preparadas para lidar com isso.
oferecidos ao cliente;
Hoje o mercado de serviços
100% • Especificar níveis de serviço
representa 68,5% do PIB mun- 90% para todos os componentes
dial. Veja no gráfico ao lado a 80%
Agricultura do serviço principal, incluindo
representatividade desse setor 70% Manufatura
60%
as partes terceirizadas;
na economia global. As empresas
50%
já aprenderam a terceirizar o que • Definir acordos com as áreas
40%
não é o foco do seu negócio, a 30%
internas e externas responsáveis
Serviço pela execução do serviço.
vender produtos como serviços, 20%

10%
24 a criar serviços especializados, A eficácia na definição e gestão
0%
e muitas estão aprendendo a 1800 1815 1830 1845 1860 1875 1890 1905 1920 1935 1950 1965 1980 1995 2000
dos SLAs é a base para a entrega
trabalhar de maneira orientada Fonte dos dados: Banco Mundial (http://data.worldbank.org)
de serviços com qualidade. A
a processos. Mas em meio a tudo isso parece que muitas formalização das expectativas do cliente e o entendimento claro
esqueceram o mais importante: atender às expectativas dos entre as partes do que foi contratado e o que será entregue
seus clientes. molda a percepção sobre um serviço, tornando-o mensurável
Firmar um Acordo de Nível de Serviço ou SLA (Service Level e objetivo.
Agreement) é a chave para iniciar um relacionamento de sucesso Atingir um SLA é entregar o que já é esperado e excedê-lo pode
com o cliente. É através desse documento que o prestador comprometer o custo e até passar despercebido pelo cliente. Por
de serviço traduz as expectativas do cliente em objetivos a outro lado, SLAs não cumpridos podem comprometer a relação
serem entregues, penalidades que poderão ser aplicadas e com o cliente ou a percepção de qualidade de todo o serviço.
responsabilidades que deverão ser cumpridas. O grande desafio
Os SLAs devem ir além da pura medição e ser um instrumento
é ter os SLAs bem definidos, pois as falhas ocorrem justamente
de suporte à melhoria contínua dos serviços e dos processos
quando as expectativas do cliente não são corretamente
de negócio nas empresas.
traduzidas nesse acordo.
Para saber mais:
http://www.gartner.com/DisplayDocument?id=314581

Fonte dos dados: Banco Mundial http://data.worldbank.org

Technology Leadership Council Brazil


Especial Centenário da IBM: SAGE, um berço de inovação
Marcelo Sávio

A Força Aérea dos Estados Unidos, impulsionada pela repercussão A experiência adquirida pelas pessoas e empresas (Bell,
da explosão das bombas atômicas experimentais soviéticas Burroughs, IBM, MIT, SDC e Western Electric) participantes
no início da década de 50, deu início a um projeto ambicioso do SAGE foi posteriormente estendida a outros projetos de
chamado SAGE (Semi-Automatic Ground Environment) para sistemas militares e civis. Algumas por exemplo, trabalharam
criação e implantação de um sistema de defesa contra aviões no projeto da ARPANET, a rede de computadores que resultou
bombardeiros. na Internet que todos usamos. Outras trabalharam no sistema
de controle de tráfego aéreo civil da FAA (Federal Aviation
Esse sistema foi implantado entre 1957 e 1961 e operava de
Administration) nos Estados Unidos. O SAGE também serviu
maneira distribuída por vinte e três centros de processamento
de modelo para o sistema SABRE (Semi-Automatic Business-
de dados instalados em bunkers gigantescos na América do
Related Environment), criado pela IBM em 1964 para controlar,
Norte, cada qual contendo dois computadores de grande porte
em tempo real, as reservas de passagens aéreas da companhia
chamados de AN/FSQ-7 (Army-Navy Fixed Special eQuipment).
American Airlines, que funciona até hoje.
Essa máquina, especialmente desenvolvida pela IBM, foi rotulada
O SAGE funcionou até o final de 1983, apesar de que, quando
de “cérebro eletrônico” nas manchetes da imprensa da época
ficou totalmente pronto, no início de 1962, as principais 25
e é, até hoje, considerado o maior computador que já existiu.
ameaças à segurança aérea já não eram mais os grandes
Pesava mais de 250 toneladas e usava mais de 50 mil válvulas
aviões bombardeiros, mas sim os velozes mísseis balísticos
eletrônicas, que consumiam 3 megawatts de energia elétrica.
intercontinentais, contra os quais o sistema era inútil. Apesar
O sistema processava um conjunto de informações oriundas dessa breve “obsolescência”, o SAGE representa um marco
de centenas de radares, calculava rotas aéreas e comparava importante na história da ciência e da tecnologia, pois, ao se
com dados armazenados para viabilizar tomadas de decisão tornar o primeiro sistema on-line, em tempo real e geograficamente
que, de forma rápida e confiável, efetuassem a defesa contra distribuído do mundo, desbravou um território inexplorado, com
os aviões bombardeiros inimigos potencialmente carregados a ajuda de tecnologias e ideias inovadoras que abasteceram
de artefatos nucleares altamente destrutivos. de maneira indelével a então nascente indústria de informática.
Para fazer tamanha complexidade funcionar, uma série de Para saber mais:
inovações foram introduzidas no projeto, tais como o uso do http://www.ibm.com/ibm100/us/en/icons/sage/
modem para a comunicação digital através de linhas telefônicas http://www.youtube.com/watch?v=iCCL4INQcFo
comuns, monitores de vídeo interativos, computação gráfica,
memórias de núcleo magnético, métodos de engenharia de
software (o sistema possuía mais de 500 mil linhas de código
escritas por centenas de programadores), técnicas de detecção
de erros e manutenção de sistemas, processamento distribuído
em tempo real e operação em alta disponibilidade (cada bunker
possuía sempre um de seus dois computadores operando em
modo stand-by).

Technology Leadership Council Brazil


Integrar conhecimentos: o desafio do consultor
Márcia Vieira

A sociedade atual, que está sendo chamada de “hiper- Como o conhecimento é a matéria-prima essencial do consultor,
moderna”, ressalta uma cultura marcada pelo excesso de pode-se afirmar que o processo de geração de conhecimento
consumo, de informações, de coisas descartáveis e rela- é o ponto de partida, no qual os consultores devem sempre
cionamentos temporários. A velocidade das mudanças e a buscar uma visão de causa e efeito e gerenciar as expectativas
falta de tempo disponível conduzem a um estilo de vida em dos clientes em relação às soluções dos problemas.
ritmo acelerado e a um estado de constante atenção e busca
A geração de conhecimento estabelece um ciclo contínuo e
por informação sobre diversos temas. Esse novo cenário gera
uma relação sinérgica entre os conhecimentos explícito e tácito.
oportunidades de trabalho para consultoria em diversas disciplinas
O conhecimento explícito, em geral, é obtido mais facilmente,
organizacionais, tais como gestão empresarial, tecnologia da
seja através das bases corporativas, cursos, treinamentos, ou
informação, marketing e vendas, entre outras.
nas mídias disponíveis.
De acordo com o Instituto Brasileiro dos
Já o conhecimento tácito é decorrente
Consultores de Organização, o trabalho de
da experiência de cada profissional. Em
consultoria pode ser definido como
um mundo globalizado, torna-se mais
“o processo interativo entre um agente de complexo integrar esses conhecimentos.
mudanças (externo e/ou interno) e seu Por essa razão é imprescindível que o
cliente, que assume a responsabilidade consultor mantenha uma extensa rede de
de auxiliar os executivos e colaboradores relacionamentos e desenvolva novas formas
do respectivo cliente nas tomadas de de atuação junto a indivíduos e grupos
decisão, não tendo, entretanto, o controle (teamwork), com objetivo de integrar as
direto da situação que deseja ser mudada partes e visões do problema, assim como
pelo mesmo”. aprofundar todos os seus aspectos.

26 Como agente de mudança, o consultor deve A competência para integrar conhecimentos


ser hábil na identificação e solução de problemas, e demonstrar e obter uma visão do todo é fundamental para o consultor.
paixão por disseminar conhecimento. Quando isso não ocorre, Além disso, buscar o entendimento de como os conceitos
há risco de ser descartado pela lógica da hipermodernidade. são construídos e articulados, e não simplesmente aceitar o
Basicamente significa que para ser um bom consultor em qualquer conhecimento das partes, ajuda a identificar problemas, sugerir
disciplina organizacional, deve-se buscar conhecimento útil, mudanças e trazer visões de outras culturas.
prático e aplicável, com foco na obtenção de resultados.
O consultor é aquele que, além de saber fazer, deve saber pensar e,
Manter-se atualizado sobre aquilo que já faz bem e ampliar o portanto, precisa ter um nível elevado de educação e uma atitude
conhecimento é o maior desafio e ao mesmo tempo um dos de formação permanente, na qual as habilidades de aprender
maiores motivadores da carreira profissional em consultoria. a aprender e de trabalhar em equipe atuem como fio condutor.

Boas memórias em minha carreira como consultora remetem a Para saber mais:
profissionais que se diferenciaram pelas habilidades em trazer http://www.ibco.org.br/
soluções criativas e chegar a ótimos resultados a partir de um Livros: Aprendizes e Mestres: A nova cultura da aprendizagem. Juan Ignácio Pozo (2002) e Introdução
ao pensamento complexo. Edgar Morin (2003)
vasto conjunto de informações e conhecimentos adquiridos.

Technology Leadership Council Brazil


Especial Centenário da IBM: IBM RAMAC: O início de uma era na computação comercial
José Alcino Brás

Na década de cinquenta do século passado os computadores então era um requisito imposto pela tecnologia dos equipamentos
deixaram de ser exclusivos das aplicações militares e passaram de fita magnética ou cartões perfurados, que eram os meios
a ser necessários na automação de processos de negócio das disponíveis para se armazenar dados mais usados na época.
empresas. Foi para atender a essa demanda de mercado que
O sucesso do RAMAC fez sua produção alcançar mais de mil
a IBM lançou, em 1956, o IBM 305 RAMAC (Random Access
unidades comercializadas e instaladas ao redor do mundo,
Method of Accounting and Control) o seu primeiro computador
inclusive no Brasil, onde chegou em 1961. Essa máquina
produzido em série projetado para executar aplicativos de
principiou o fim da era dos cartões perfurados e introduziu
contabilidade e controle de transações comercias, tais como
uma nova era, na qual as corporações passaram a utilizar
processamento de pedidos, controle de inventário e folha
computadores para conduzir e agilizar seus negócios, fazendo
de pagamento.
uso do processamento de transações on-line e armazenamento
A grande novidade do 305 RAMAC não estava na sua capacidade de grandes volumes de dados em discos magnéticos.
de processamento mas na utilização de um novo equipamento
A tecnologia introduzida no RAMAC foi a semente que gerou os 27
periférico para a entrada e saída de dados, denominado “Unidade
discos magnéticos produzidos até os dias atuais - antigamente
de Disco IBM 350”, o qual permitia a gravação e leitura de dados
ainda chamados de “winchesters”, depois “discos rígidos” e hoje
de forma extremamente rápida quando comparada aos outros
simplesmente de “HDs” — os quais se encontram disponíveis
meios de armazenamento usados até então. Do tamanho de
no mercado com capacidade de armazenamento superiores
dois refrigeradores, o IBM 350 consistia de 50 discos de 60 cm
a 2 terabytes, giram a 15 mil rotações por minuto e alcançam
de diâmetro montados e centralizados em único pivô movido
taxas de transferência de dados superiores a 200 megabytes
por um motor e que somavam 5 megabytes de capacidade, os
por segundo (mais de 20 mil vezes superior ao IBM 350).
quais eram acessados a uma taxa de 10 kilobytes por segundo.
Aquele grupo de engenheiros do laboratório da IBM talvez não
A unidade de disco do RAMAC representou um verdadeiro
imaginasse que o RAMAC representaria o início de uma era
marco na evolução da tecnologia, no qual diversos obstáculos
para uma das tecnologias mais importantes na indústria da
técnicos foram suplantados, tais como encontrar o material
computação, a qual influenciaria por completo no modo de
adequado para confecção do disco e da superfície magnética,
armazenar e processar a informação, um bem intangível e de
criar o mecanismo de leitura e gravação com movimento rápido
grande valor para inúmeros segmentos da sociedade, que
e certeiro posicionando-o sobre o local físico do dado que girava
por sua vez segue demandando e gerando cada vez mais
a 1.200 rotações por minuto, além de garantir que o mesmo não
informação, num volume de crescimento estimado, ano passado,
tocasse fisicamente a superfície do disco magnético através
em mais de 1 zettabytes (1 milhão de terabytes). Haja disco
da injeção de ar comprimido entre a superfície do disco e o
para armazenar tudo isso!
cabeçote de leitura e gravação.
Para saber mais:
Ao possibilitar que a informação fosse gravada, lida e alterada
http://www.ibm.com/ibm100/us/en/icons/ramac/
em poucos segundos e, principalmente, pudesse ser acessada
http://www.youtube.com/watch?v=CVIKk7mBELI
de forma aleatória, eliminou a necessidade de se classificar os
http://www.youtube.com/watch?v=zOD1umMX2s8
dados em sequência antes do seu processamento, o que até

Technology Leadership Council Brazil


A evolução do modelo de entrega de serviços de TI
Eduardo Sofiati

O mercado de serviços de TI tem evoluído significativamente têm sido empregados nos contratos. Os SLAs (Service Level
nos últimos anos. Provedores e clientes têm buscado ampliar Agreements), que regem os contratos de outsourcing há bastante
as modalidades de contratação dos serviços, visando obter tempo, também têm evoluído na definição de indicadores mais
maiores benefícios — e não apenas redução de custos — por alinhados à disponibilidade dos serviços e sistemas que causam
meio de um melhor alinhamento das soluções de tecnologia impacto aos negócios dos clientes.
com as necessidades de negócio.
Para as empresas de serviços conseguirem sobreviver e crescer
O modelo tradicional possui provedores especializados na entrega nesse mercado tão acirrado e ainda manter resultados saudáveis,
de serviços repetitivos, os quais se baseiam em ganhos de as seguintes estratégias estão sendo adotadas, principalmente
eficiência e escala, proporcionando competividade. Como o pelas empresas globais:
mercado de serviços de TI apresenta muitos competidores,
Padronização: maximizar o uso de modelos comuns para a
cada provedor busca propor diferenciais para atrair e manter
maior parte do portfólio de serviços, como
clientes e assim aumentar sua participação
forma de viabilizar a repetição na entrega,
nesse mercado.
o que resulta em economia de escala e
Alguns provedores apostam em modelos simplificação nas estruturas de delivery;
que trazem maior valor para os serviços
Integração: Executar modelos de entrega,
ofertados para atender aos requisitos de
na forma mais eficiente possível, usando
negócios de seus clientes. O provedor,
todo o alcance que o provedor possua,
nesse caso, é percebido pelo cliente
visando obter o menor custo possível com
como um parceiro estratégico ao invés
pessoal aproveitando a disponibilidade de
de fornecedor e passa a oferecer não
skills existentes em cada região;
commodities, mas sim soluções.
Automação: Reduzir as tarefas manuais
28 Como exemplo, podemos citar a evolução nas ofertas de serviços
ao máximo para baixar custos e ainda elevar a qualidade do
recentemente lançadas pelo segmento de outsourcing de
serviço entregue.
infraestrutura e telecomunicações, que estão alinhadas às últimas
tendências de tecnologia, tais como Cloud Computing, SaaS É possível refletir acerca da notável evolução ocorrida com
(Software as a Service), Virtual Desktops, Unified Communications a prestação de serviços de TI ao longo dos anos. Na forma
e segurança de redes. Essa evolução está transformando o antiga, os provedores criavam uma abordagem nova para cada
modelo tradicional de outsourcing, em um modelo utility-based, projeto, propondo modelos customizados para cada cliente,
que muda o conceito de propriedade sobre os ativos de TI. um método ineficiente que gerava desperdício de tempo e
Segundo o Gartner, até 2012, 20% das empresas não terão dinheiro. Atualmente se busca simplificar a concepção dos
mais ativos de TI, o que se transforma em oportunidades para projetos, sobretudo suas bases, através de modelos padronizados
os provedores alavancarem ofertas mais completas, capazes e simplificados, baseados nas melhores práticas de TI e no
de entregar serviços com mais agilidade e qualidade através conhecimento da indústria. Com isso, mais tempo é dedicado
da adoção de tecnologias de ponta na solução de problemas de negócios específicos de cada
cliente, transformando a TI numa alavanca para estimular o
Em relação ao desempenho dos provedores de serviços também
crescimento, gerando economias para a empresa e preparando-a
houve bastante evolução nos últimos anos. Através do uso de
para atender novos desafios.
KPIs (Key Performance Indicators) tem sido possível mensurar
a efetividade dos processos e soluções de tecnologia que Para saber mais:
http://www.ibm.com/services

Technology Leadership Council Brazil


Especial Centenário da IBM: IBM 1401, quando os tempos eram outros...
José Carlos Milano

Respeitando-se as devidas proporções, poder-se-ia dizer perfurado. Ao pressionar o botão de “load” na leitora de cartões
que o computador IBM 1401 foi, na década de sessenta, tão 1402, o programa SPS era carregado na memória do 1401 para
importante para a disseminação da computação no mundo em seguida ler e traduzir o programa escrito pelo usuário em
corporativo das pequenas e médias empresas, quanto o PC código executável. Na verdade, a tradução do programa do
para os consumidores dos dias de hoje. Para se ter uma ideia, usuário acontecia em duas etapas. Na primeira, gerava-se uma
venderam-se mais de dez mil equipamentos dessa linha, quando massa de cartões com a tradução parcial, que era perfurada na
muitos leitores deste artigo nem sequer haviam nascido. Os 1402. Essa massa de cartões era então realimentada na parte
tempos eram certamente outros... leitora da 1402 quando, finalmente, os cartões com o programa
objeto eram perfurados e ficavam prontos para execução.
O 1401 foi o primeiro computador totalmente transistorizado
fabricado pela IBM (quando se substituíram as válvulas a vácuo). A menor unidade de memória endereçável no 1401 era o
Era menor e mais durável que os antecessores. Foi lançado em “character”, composto por oito bits (fisicamente um núcleo de
1959 e comercializado até 1971 (e muitos seguiram rodando ferrite para cada bit). Esse “character” seria o equivalente ao
29
até a década de oitenta). Seu sucesso foi tão grande e para que hoje chamamos de “byte”, termo que só passou a existir
ele tanto código foi desenvolvido, que a IBM se viu obrigada na era do System/360. Desses oito bits, seis eram utilizados
a criar um emulador por microcódigo que permitisse executar para representar o caractere, o sétimo era o bit de paridade e
os programas escritos para o 1401 nas linhas de mainframes o oitavo representava uma “word mark”. Uma “word” no 1401
que o sucederam, começando pelo System/360, lançada em representava uma sequência variável de caracteres consecutivos,
1964. Por incrível que pareça, muitos desses emuladores foram sendo que o último era chamado “word mark”. É por isso que
utilizados em outras famílias de mainframe até a chegada do ano o 1401 ficou conhecido como uma máquina que processava
2000, quando finalmente os programas ainda existentes para tamanhos variáveis de palavras. Cada instrução em sua linguagem
1401 tiveram que ser reescritos por causa do “bug” do milênio. de máquina podia ter de 1, 4, 7 ou 8 caracteres de tamanho.

A facilidade de programação, através das linguagens SPS Apesar de toda a beleza da tecnologia, não era nada trivial
(Symbolic Programming System) e depois com a Autocoder, programar essas fantásticas máquinas, principalmente se
foi a maior responsável pelo sucesso do 1401. No início, a comparamos com os atuais ambientes de desenvolvimento
maioria dos ambientes computacionais (chamados de CPDs) de sistemas. Passados 50 anos, as facilidades e técnicas de
era constituída pelo “mainframe” 1401 em si e pelos “frames” da programação de hoje permitem uma enorme produtividade
unidade perfuradora e leitora de cartões (1402) e da impressora na geração de códigos. Alguém se arrisca a estimar quantas
(1403). Ainda não existiam unidades de fita ou discos magnéticos. linhas de código de programas devem existir no mundo hoje?

Como também ainda não existia sistema operacional, a operação Para saber mais:
de criação de código executável a partir da programação http://www.ibm.com/ibm100/us/en/icons/mainframe/
simbólica feita pelo usuário era bem peculiar. O programa http://ibm-1401.info/index.html
SPS precedia o programa escrito pelo usuário. Tudo em cartão

Technology Leadership Council Brazil


A Internet das Coisas
José Carlos Duarte Gonçalves

A Internet foi criada pelos norte-americanos em 1969, como redes sociais, blogs, chats, twitter, etc. Petabytes de dados são
uma rede visava o compartilhamento dos caros e escassos gerados todos os dias por inúmeras aplicações, ocasionando
recursos computacionais entre as universidades financiadas pela uma explosão de informações.
ARPA (Advanced Research Projects Agency), uma agência de
E não param de surgir novos usos para a Internet, os quais
fomento à pesquisa do Depto. de Defesa do governo dos Estados
vão além da conexão entre pessoas e/ou computadores. Já
Unidos. A ARPANET (assim chamada no início) foi concebida
existe quase um trilhão de “coisas” conectadas na rede, o
para suportar ambientes computacionais heterogêneos e oferecer
que possibilita aplicações e usos em nossas vidas até então
o máximo de resiliência possível, mesmo no caso de falha ou
inimagináveis, a partir da monitoração de eventos, em tempo
indisponibilidade de alguns nós da rede. Isso se tornou possível
real, recebidos diretamente de sensores. Fazendo uso de
através do uso de sistemas de roteamento de pacotes distribuídos
tecnologias economicamente viáveis e compatíveis, esses
entre os vários computadores que interligados permitiram a
sensores instalados em equipamentos, embalagens, prédios,
continuidade das comunicações e operações. Para estar sempre
produtos, animais, marcapassos,
disponível e permitir a conexão
relógios e outros, utilizam-se de
de sistemas heterogêneos, duas
microchips que são capazes de
características foram necessárias:
capturar informações de vários
simplicidade e padronização.
subsistemas e alimentar sistemas
Simplicidade é fundamental para
centrais de suporte à tomada
facilitar a conexão de qualquer
de decisão e, evetualmente, de
coisa, e a aderência a padrões
ação sobre os eventos e objetos
é necessária para permitir, além
monitorados.
da comunicação e troca de
informações, a interoperabilidade. A Internet das Coisas está criando
um rede objetos identificáveis e
30 Na década de noventa, com a
que podem interoperar uns com
criação de formas mais amigáveis
os outros (o que vem sendo
de interação, como a World
chamado de Machine to Machine,
Wide Web (WWW) e também
ou M2M) e com os data centers e
com o advento dos softwares
suas nuvens computacionais. Ao aglutinar o mundo digital com
navegadores (browsers), todo mundo, e não mais somente os
o mundo físico, está permitindo que objetos compartilhem in-
pesquisadores acadêmicos, passou a ter acesso às facilidades
formações sobre o ambiente em que se encontram e reajam de
providas pela Internet. A primeira grande novidade daquele
forma autônoma aos eventos, influenciando ou modificando os
momento foi a criação de websites, tais como os disponibilizados
próprios processos nos quais estão inseridos, sem necessidade
por empresas, bancos e jornais, por exemplo. Os usuários,
de intervenção humana.
que contratavam serviços de provedores, passaram a acessar
informações do mundo todo, entrar em museus virtuais, ler Soluções desse tipo têm aplicabilidade em diversos setores da
notícias em tempo real de qualquer lugar e utilizar também sociedade e possibilitam o surgimento de modelos de negócio
outras aplicações como chats e email. inovadores, calcados em um novo mundo, instrumentado,
interconectado e inteligente. Essa é a Internet das Coisas ou
Em 1997, a IBM criou uma estratégia para a utilizar a Internet
Internet of Things.
como plataforma de negócios (e-business), o que ajudou a
consolidar a grande virada da Internet para o mundo comercial, Para saber mais:
quando as empresas passaram a explorar a grande rede para http://www.youtube.com/watch?v=sfEbMV295Kk

fazer negócios e aumentar lucros. Atualmente a Internet está http://www.ibm.com/smarterplanet/

sendo explorada intensamente para a colaboração através de http://en.wikipedia.org/wiki/Internet_of_Things

Technology Leadership Council Brazil


Especial Centenário da IBM: O Programa Espacial e a Tecnologia da Informação
Agostinho Villela

Quando contemplamos a Lua no céu, é difícil imaginar como O programa espacial demandou o estado da arte em informática
o homem conseguiu chegar até esse astro. A Lua fica a mais da época, empurrando os limites da tecnologia e contribuindo
de 380 mil km de distância da Terra, o que significa mais de 10 de forma muito significativa para o seu progresso. Os avanços
vezes a distância dos satélites artificiais mais altos e cerca de 400 na microeletrônica e na arquitetura de hardware e software dos
vezes mais longe que o alcance máximo dos ônibus espaciais. sistemas desenvolvidos para projetar e controlar as naves e
Fica mais difícil ainda imaginar quando consideramos que tal seus tripulantes foram substanciais.
feito se deu há mais de 40 anos, durante a missão Apollo XI da
A participação da IBM nesse contexto sempre foi muito intensa,
NASA, numa época em que os computadores mais poderosos
sendo considerada, inclusive, uma parte integral do programa
tinham menos capacidade de processamento e memória que
espacial norte-americano. Desde o início, forneceu computadores
o mais básico telefone celular de hoje em dia.
(da família IBM 70x) para rastrear satélites, tanto os soviéticos
A missão Apollo XI fez parte do programa espacial norte-americano, Sputniks, quanto os norte-americanos Explorer-1, (primeiro
que foi iniciado em 1958 como reação ao lançamento dos satélites satélite artificial dos Estados Unidos) e Echo-1, (primeiro
Sputnik I e II pela então rival União Soviética, dando início à satélite de comunicação do mundo). Em meados dos anos 31
corrida espacial durante a Guerra Fria. Ao longo do tempo foi sessenta, a IBM forneceu computadores da família 7090 para
subdividido em vários programas, sendo os projetos Mercury, ajudar a NASA a controlar as primeiras missões tripuladas. E,
Gemini e Apollo os primeiros voltados para as viagens tripuladas. a partir de 1964, além de fornecer computadores S/360 para
projetar, rastrear e controlar naves, a IBM passou a fornecer
O projeto Mercury foi iniciado em 1959 e durou até 1963. Tinha
computadores embarcados para navegação e monitoração,
como objetivo primário colocar um homem em órbita ao redor
como os sistemas IU (Instrument Units) dos foguetes Saturno,
da Terra. Consistiu de 26 missões.
contribuindo decisivamente para o sucesso do primeiro vôo
Entre 1965 e 1966 foi executado o projeto Gemini. O foco, tripulado que pousou na Lua, em Julho de 1969.
nesse caso, era desenvolver técnicas necessárias para viagens
Pouco eventos contribuíram de forma tão intensa para a inovação
complexas ao espaço. Consistiu de 10 missões e teve eventos
e o avanço da tecnologia da informação como o Programa
como “caminhadas no espaço” e ”rendezvous” entre naves.
Espacial, que ainda hoje continua, na forma de ônibus espaciais,
O programa Apollo, que tinha como meta levar o homem à sondas, telescópios espaciais, além da própria Estação Espacial
Lua até o final da década de 60, começou em 1961 e teve Internacional e, quem sabe, uma missão tripulada para Marte.
como grande impulso o famoso discurso do então Presidente Tecnologias como o circuito integrado, painéis solares e células
John Kennedy ao Congresso norte-americano, pronunciado combustíveis não existiriam ou teriam demorado mais para
dias depois, e em resposta, ao sucesso do primeiro vôo surgir se não houvesse o desafio da conquista do espaço. E
tripulado ao espaço, no qual estava o cosmonauta russo Iuri nenhuma outra empresa de tecnologia de informação tem sido
Gagarin. No seu auge, o programa Apollo chegou a empregar tão protagonista desse processo como a IBM.
400 mil pessoas e envolver 20 mil entidades, entre governo,
Para saber mais:
empresas, universidades e centros de pesquisa, tendo gasto
www.ibm.com/ibm100/us/en/icons/apollo/
cerca de US$ 24 bilhões na ocasião (algo como US$ 150
www.ibm.com/ibm/ideasfromibm/us/apollo/20090720
bilhões nos dias de hoje).

Technology Leadership Council Brazil


Colaboração eficiente em um Planeta Inteligente
Lenilson Vilas Boas

Em nosso cotidiano profissional, acessamos emails e websites, com aplicações que utilizam e tomam decisões com base no
usamos blogs, Twitter, redes sociais, mensagens instantâneas, ambiente (contexto) em que estão inseridas em determinado
smartphones, videoconferência, compartilhamento e edição momento, considerando o local e a situação ao seu redor. Em
online de documentos bem como diversas outras ferramentas outras palavras, a computação ciente de contexto considera as
de colaboração. Essas tecnologias nos permitem realizar cada entradas implícitas que descrevem a situação e as características
vez mais atividades, independentemente de nossa localização do ambiente em sua volta. A origem dos dados contextuais está
e influenciam em nosso comportamento. nos indicadores de localização (GPS), sensores de temperatura e
Por outro lado, as organizações e a sociedade também exigem luz, data e hora, monitores de redes de computadores, status de
mais agilidade, seja no trabalho ou na vida pessoal. Mas como serviços e outros. A integração de notebooks, celulares, sensores
pode-se aumentar a produtividade sem otimizar ou reduzir e vários outros dispositivos ao ambiente físico, possibilita a
algumas atividades? colaboração inteligente, capaz de adaptar
as aplicações às condições e limitações
É nesse contexto que as ferramentas
dos seus usuários. Um exemplo disso é um
colaborativas podem ser grandes aliadas,
telefone celular ciente de contexto, capaz
reduzindo a quantidade de aplicações que
de mudar automaticamente para o modo
temos que administrar e tornando mais
“vibrar”, ao invés de “tocar”, dependendo
ágil e intuitiva nossa interação com os
da hora ou local onde se encontra.
equipamentos. A produtividade torna-se
então diretamente proporcional à facilidade Com a futura implementação do IPv6, a
de uso dessas ferramentas, causando uma nova versão do protocolo de comunicação
mudança que influencia diretamente em da Internet e sua vasta capacidade de
nossa interação com os aparelhos e aplicativos, através dos endereçamento de equipamentos na rede, a colaboração
quais recebemos e enviamos informações a todo o momento. e a integração serão ainda maiores, pois existirão muitos
32 mais dispositivos conectados e capazes de interagir e trocar
Uma colaboração inteligente não depende apenas da tecnologia
informações em escala global. Será possível, por exemplo,
mas também de uma mudança cultural, através da qual passamos
automaticamente identificar e combater situações de emergência
de uma postura individualista para outra, mais colaborativa.
como incêndios, explosões, vazamento de substâncias tóxicas,
Essa nova postura integra as pessoas e a sociedade através
monitorar o trânsito e até mesmo informar seu médico sobre
de aparelhos e sistemas, que passam a ser considerados como
resultados de exames ou algum acidente ocorrido.
verdadeiros “companheiros”, indispensáveis para a comunicação
e a troca de informações em nosso dia-a-dia. Praticamente qualquer objeto, com o qual o ser humano possa
ou não interagir, será capaz de trocar informações com outros
Podemos sofisticar ainda mais a colaboração e aumentar a
equipamentos e pessoas, o que em muito poderá aumentar
produtividade com a utilização de dados contextuais. Esses
nossa eficiência na execução das tarefas cotidianas. Tudo isso
dados consideram onde o usuário está localizado, com
sem ninguém precisar apertar nenhum botão.
quem está interagindo ou se está em uma situação especial,
como por exemplo, uma situação de perigo. Surge então a Para saber mais:
http://www.ubiq.com/hypertext/weiser/SciAmDraft3.html
computação ciente de contexto (context-aware computing)
http://www.hardware.com.br/artigos/computacao-ubiqua/

Technology Leadership Council Brazil


Enxergando o mundo melhor
Carlos Eduardo Abramo Pinto

O que um laser desenvolvido para manufatura de chips eletrônicos,


um peru de jantar de Ações de Graças e três cientistas têm em
comum? Se você, tal como eu e mais de 20 milhões de pessoas
no mundo, realizou cirurgia de correção ocular nos últimos
20 anos, essa improvável combinação de tecnologia, reunião
familiar e busca por inovação faz parte da sua vida.

Criado na década de setenta por cientistas russos e desenvolvido


nos anos seguintes por diversos grupos, que incluíam o laboratório
de pesquisa naval dos EUA, o laser excimer foi concebido para
fabricação de dispositivos eletrônicos, para o qual é usado
Através de pesquisa colaborativa entre a IBM e oftamologistas
ainda hoje.
do Centro Médico Presbiteriano de Columbia, foi feito um estudo
O termo excimer é derivado da expressão excited dimers (dímeros em 1983 introduzindo o uso do laser excimer para remodelagem
excitados), que reflete a forma como o laser funciona: através da córnea humana. Esse estudo iniciou um programa mundial
do estímulo eletrônico de gases reativos, como cloro e flúor, de pesquisas, culminando em 1995 com a aprovação das
misturados a gases inertes como argônio, criptônio ou xenônio, autoridades americanas para o primeiro sistema comercial de
é produzida luz ultravioleta. Essa luz pode realizar alterações cirurgias refrativas baseadas em laser.
microscopicamente precisas em diversos materiais. E, por não
Hoje os dois principais tipos de cirurgia da córnea por laser
produzir calor nem danificar a região próxima a sua aplicação,
excimer são as cirurgias fototerapêuticas, conhecidas como
o laser excimer é conhecido como laser frio.
PTK e utilizadas para remoção de tecido da córnea de modo
No início dos anos oitenta, três cientistas do laboratório de a corrigir alguma doença ocular, como úlceras de córnea, e
pesquisa Thomas J. Watson da IBM nos Estados Unidos – James as cirurgias fotorefrativas, utilizadas para remover tecido da
Wynne, Samuel Blum e Rangaswamy Srinivasan - pesquisavam córnea para corrigir um problema de refracção, como miopia, 33
novas formas de utilização do laser excimer, recém adquirido pelo hipermetropia e astigmatismo. As principais técnicas de cirurgias
laboratório. Devido às características citadas do laser excimer, os fotorefrativas são a PRK e a LASIK. A técnica PRK exige um
cientistas se perguntavam qual seria o resultado da sua aplicação tempo de recuperação grande, estimado em 4 a 8 semanas,
em tecidos humanos ou animais. E os primeiros testes foram e é necessária a utilização de lentes de contato para proteção
realizados em sobras do peru do jantar de Ação de Graças de da córnea nos primeiros dias.
um dos cientistas, com resultados altamente positivos, em que
Já a técnica LASIK (laser-assisted in-situ keratomileusis), a
cortes extremamente precisos na carne, ossos e cartilagens do
mais popular cirurgia ocular realizada no mundo, possibilita a
peru foram obtidos sem danos à região próxima da aplicação do
rápida recuperação dos pacientes, estimada em um a dois dias,
laser. Como forma de demonstrar o resultado, o time produziu
não exige a utilização de lentes de contato para o processo
uma imagem ampliada de um fio de cabelo humano com a
de recuperação, e possui altíssimo percentual de efetividade,
palavra IBM gravada através da aplicação do laser excimer.
eliminando a necessidade de utilização de óculos e lentes de
Essa imagem foi publicada em todo o mundo, iniciando diversas contato em mais de 90% dos casos.
discussões sobre a utilização dessa descoberta em diferentes
Quem diria que uma descoberta como essa começou a partir da
áreas da medicina, como cirurgias de cérebro, ortodontia,
curiosidade de três cientistas e um simples peru? É a inovação
ortopedia e dermatologia. Ao mesmo tempo, cirurgiões
a serviço da sociedade.
oftalmologistas estavam à procura de alternativas para as técnicas
existentes de cirurgias oculares. O procedimento com bisturi Para saber mais:
não era preciso, danificava permanentemente a córnea e exigia http://www.ibm.com/ibm100/us/en/icons/excimer/

um longo tempo de recuperação dos pacientes.

Technology Leadership Council Brazil


Vivemos em um mundo cada vez mais instrumentado
Antônio Gaspar

O mundo está cada vez mais instrumentado, Na década de noventa, surgiram os carros com injeção
interconectado e inteligente. Nesse contexto, eletrônica no Brasil, nos quais os sistemas eletromecânicos
as novas gerações de tecnologias em ins- foram substituídos por uma malha de sensores (rotação,
trumentação fazem seu papel como um dos velocidade, temperatura etc), atuadores (bicos injetores, etc)
pilares que preconizam um Smarter Planet. Digo e, não menos importante, o módulo central de controle, um
“novas”, pois esse conceito iniciou-se com a revolução industrial. verdadeiro microcomputador embarcado (nada a ver com o
tal “computador de bordo”). Hoje, seu carro pode ter mais de
Até a década de oitenta, a palavra instrumentação nos remetia
100 milhões de linhas de código embarcado. A propósito, você
a conceitos díspares que iam de algo relativo a música, cirurgia
já pensou em fazer um upgrade de software nele? É isso que
(instrumentação cirúrgica) e, menos conhecida, uma tal de
ocorre em alguns recalls feitos pelas montadoras.
instrumentação industrial. Foi justamente essa que evoluiu a
ponto de fazer parte de nossas vidas, constantemente e de A instrumentação foi além das aplicações automotivas e começou
forma onipresente. a fazer parte do cotidiano urbano. Estações meteorológicas
tradicionais passaram a integrar um grid de controle climático
Nas instalações industriais, seu papel está relacionado aos
urbano. Dados sobre temperatura, pressão barométrica, umidade,
sistemas de controle e automação, os quais são constituídos por
velocidade e sentido dos ventos são transmitidos a centros de
três componentes básicos: sensores, controladores e atuadores.
controle meteorológicos por meio de telemetria via 3G, wi-fi,
Os sensores são responsáveis pela captação das chamadas cabos ou rádio. Nas vias de grande concentração de tráfego,
“variáveis medidas” (temperatura, nível, pressão etc). Agindo como as câmeras de monitoração deixaram de ser simplesmente
transdutores, os sensores convertem a dinâmica física dessas transmissoras de imagens e passaram a representar fontes
variáveis em sinais de telemetria e os transmitem através de de dados para sistemas inteligentes de vigilância digital que
protocolos de comunicação padronizados, em formato analógico podem identificar padrões de eventos, alertar e tomar decisões
(ainda muito usados) ou digital. sobre o controle do tráfego. Outros sistemas são dotados de
34 algoritmos de reconhecimento facial, capazes de identificar,
Os controladores são os receptores dos sinais de telemetria
dos sensores e são responsáveis por aplicar algoritmos de com precisão, pessoas relacionadas em um banco de dados.
correção (principio básico do “mede, compara, computa e E, através de microfones acoplados, as tecnologias de análise
corrige”), tomando-se referenciais preestabelecidos para a de áudio são capazes de identificar disparos de armas de fogo
tomada de decisão. e emitir alertas à policia.

Os atuadores são os dispositivos que recebem os comandos Enfim, para quem assistiu ou leu Minority Report ou 1984, temos
vindos dos controladores. Seu papel é atuar sobre uma “variável uma materialização da ficção. Fora das telas e dos livros, resta-
manipulada” (ex: vazão de água), a fim de obter resultados nos aplicar a tecnologia para o bem comum, visando a um
sobre uma “variável medida” a ser controlada (ex: nível da água planeta melhor e mais inteligente.
na caldeira). Para saber mais:
Esses sistemas ultrapassaram as fronteiras das instalações http://www.ibm.com/smarterplanet

industriais. A engenharia de materiais e miniaturização de


circuitos eletrônicos – hoje o planeta tem mais de 1 bilhão de
transistores por ser humano – trouxeram esses conceitos básicos
para aplicação em controle de dispositivos muito mais próximos
de nós do que imaginamos. A amostra mais representativa disso
está nos automóveis.

Technology Leadership Council Brazil


Especial Centenário da IBM: Elementar, meu caro Watson
José Luis Spagnuolo

De tempos em tempos acontece um salto na indústria de TI que de processamento analítico massivamente paralelos. Mais de
transforma todo o futuro e modifica a perspectiva do passado. cem técnicas diferentes foram usadas para analisar a linguagem
Foi assim com a introdução do IBM S/360, com o surgimento natural, identificar as fontes de informação, gerar as hipóteses,
da computação pessoal e também com o advento da Web. achar e classificar as evidências e combinar e priorizar as
respostas. A maneira como essas técnicas foram combinadas no
No começo deste ano assistimos ao que pode se tornar uma
DeepQA trouxeram agilidade, precisão e clareza no encontro das
transformação gigantesca na maneira como os computadores
respostas. O Watson representou um verdadeiro salto quântico
poderão participar da vida humana. Um computador chamado
na concepção, aplicação e desenvolvimento da Inteligência
Watson participou, nos Estados Unidos, de um programa de
Artificial. E, após o jogo, as primeiras aplicações práticas na
auditório em um jogo sobre conhecimentos gerais, contra os dois
sociedade já começaram a surgir.
maiores campeões da história do programa em anos anteriores.
O Watson tinha que selecionar temas, entender linguagem natural No campo da medicina, está em curso uma revolução no
e em questão de segundos, tentar responder corretamente às diagnóstico e prescrição de tratamentos. Existem milhões de
perguntas antes de seus oponentes humanos. sintomas e distúrbios possíveis, fazendo com que um médico
acerte, em media, 50% dos seus diagnósticos e consiga lembrar-
A vitória do Watson foi esmagadora. O que mais chamou a 35
se de apenas 20% das melhores práticas para os tratamentos
atenção foi a vastidão de conhecimentos e a capacidade de
corretos. A indústria de saúde acredita que o Watson poderá
interpretação necessárias para se ter sucesso nesse tipo de
elevar o número de acertos para mais de 90% no diagnóstico e
jogo, pois uma vez iniciado, o Watson não podia ter contato ou
terapia, melhorando a vida dos pacientes, reduzindo os custos
acesso a informações externas e sequer seus programadores
para hospitais e governos, permitindo, portanto, que uma parte
podiam tocá-lo ou acessá-lo remotamente.
maior da população tenha acesso a saúde de melhor qualidade.
Por incrível que pareça, essa máquina nao dispõe de nenhum
Outra possibilidade de aplicação prática seria a do Watson atuar
hardware ou software especial. É baseada na tecnologia IBM
como uma central de atendimentos. Através do entendimento da
Power 7 rodando em Linux, com chips de memória comuns, com
linguagem natural e do acesso aos dados dos usuários, o Watson
armazenamento de dados em discos padrão IBM DS8000, tudo
poderia responder a questões e disparar ações necessárias
utilizado em larga escala por diversas empresas ao redor do
para satisfazer aos clientes de maneira rápida e correta.
mundo. O que se pode destacar é a quantidade de processamento
do Watson, pois foram 90 servidores Power 750 configurados em Estamos apenas começando a avaliar as transformações que
cluster, cada um com 32 núcleos de processamento POWER7 o Watson poderá gerar em nossas vidas nos próximos anos.
operando a 3.55 GHz e uma memória RAM de 16 Terabytes. Isso Mas uma certeza já está estabelecida, a indústria de TI nunca
tudo resultou em uma capacidade extraordinária de execução mais será a mesma.
de 80 Teraflops (trilhões de operações por segundo) utilizada
Para saber mais:
para o entendimento, pesquisa, recuperação, classificação e
http://www.ibm.com/ibm100/us/en/icons/watson/
apresentação das informações.
http://www.ibm.com/innovation/us/watson/
O grande diferencial do Watson é o DeepQA, uma arquitetura de http://ibm.com/systems/power/advantages/watson
sistema probabilístico inventada pela IBM, que usa algoritmos

Technology Leadership Council Brazil


Impactos da revolução multi-core no desenvolvimento de software
Thadeu de Russo e Carmo

Nos últimos anos, o aumento da Em linguagens como Java, C++ e C#, o controle de acesso a
velocidade dos processadores uma região compartilhada de memória é feito através de travas
passou, por questões físicas, a não (conhecidas como “semáforos”). Contudo, o uso dessas travas,
mais acompanhar o aumento da além de ser complicado, possui limitações e cria situações
quantidade de transistores. Por conta propensas a deadlocks, ou seja, situações de impasse que não
dessa e de outras limitações, a busca permitem que o sistema prossiga com a execução.
por ganhos de desempenho levou a
O paradigma de programação funcional, que por muito tempo
diversas abordagens, a se destacar
foi considerado muito teórico para o desenvolvimento de
a construção de processadores com
aplicações comerciais, vem ganhando, já há alguns anos, um
múltiplos núcleos.
maior interesse por parte do mercado. Esse interesse se dá por
Atualmente os processadores com múltiplos núcleos, popu- conta de que as linguagens funcionais, tais como Erlang e Haskell,
larmente conhecidos como multi-core, estão cada vez mais possuem características apropriadas para o desenvolvimento de
comuns em computadores pessoais, não estando limitados sistemas concorrentes. Diferente das linguagens imperativas, que
somente a desktops e notebooks, uma vez que ganharam favorecem a mutabilidade de dados, as linguagens funcionais se
presença na fabricação de tablets e videogames. Por exemplo, o baseiam em aplicações de funções e recursão. Podemos pensar
processador Cell desenvolvido em conjunto pela IBM, Toshiba e em como executar um loop sem alterar o valor de nenhuma
Sony está presente no Sony Playstation 3. Os consoles Microsoft variável, inclusive das que controlam o loop. Existem linguagens
Xbox 360 e Nintendo Wii também utilizam processadores funcionais e concorrentes, como Scala e Closure, que rodam
baseados na tecnologia IBM Power com multi-core. em JVMs (Java Virtual Machines) e interroperam naturalmente
com a plataforma Java.
Processadores com múltiplos núcleos impactam conside-
ravelmente a maneira com que programas são escritos, já Estamos passando por uma mudança de paradigma, assim
que não é mais possível usufruir naturalmente do aumento de como ocorreu com a orientação a objetos. O desenvolvimento
36
performance de seus clocks. Para que os programas possam de algoritmos não sequenciais está cada vez mais comum.
usufruir dos ganhos de desempenho, precisam ser escritos de Abstrações da programação concorrente (por exemplo o uso de
modo que possam ser distribuídos, pelo sistema operacional, atores e de memória transacional em software) já estão marcando
de forma concorrente entre os núcleos do processador. mais presença nas linguagens de programação. As linguagens
funcionais estão cada vez mais próximas do mundo corporativo
Escrever programas para que sejam executados de forma
e o modo como os desenvolvedores de sistemas devem passar
concorrente não é uma tarefa fácil. Podemos imaginá-los como
a endereçar os problemas está mudando, mais uma vez.
programas formados por vários outros programas menores,
os quais muito provavelmente vão compartilhar informações Para saber mais:
entre si, o que nos leva a pensar em como sincronizar o acesso http://www.gotw.ca/publications/concurrency-ddj.htm
de leitura e escrita dessas informações. Ademais, com essas http://www.erlang.org
ações ocorrendo em paralelo é impossível saber com certeza http://haskell.org
a ordem na qual serão executadas. Para complicar um pouco
mais, a maioria das atuais linguagens de programação e dos
ambientes de desenvolvimento de sistemas não é adequada
ao desenvolvimento de sistemas concorrentes.

Technology Leadership Council Brazil


Especial Centenário da IBM: A IBM e a Internet
Leônidas Vieira Lisboa

Vários acontecimentos contribuíram para a evolução da Internet, plataforma. Atualmente, a maioria dos computadores pessoais
transformando-a na rede global que transporta diversas mídias ainda segue esse padrão aberto. Por essa razão, o IBM PC foi
e serviços e tornou-se um ícone dos últimos 100 anos, mudando um marco na história dos computadores pessoais, as máquinas
os negócios das corporações e a vida das pessoas. que possibilitaram o uso em massa dos serviços da Internet,
como o email e a World Wide Web.
Para entender melhor esse ícone, vale a pena navegar brevemente
por alguns fatos importantes que foram parte de sua história e 3. Em meados dos anos noventa o termo “e-business” representou
observar como a IBM esteve presente neles. a materialização de uma estratégia da IBM para mostrar ao
mercado como reunir serviços e tecnologia para fazer negócios
1. A ARPANET (Advanced Research Project Agency Network
através da Internet, através de uma visão “network-centric”, voltada
- 1969) e a NSFNET (National Science Foundation Network -
à Web. Talvez, essa tenha sido a contribuição mais importante
1986) foram redes pioneiras que conectaram computadores
da IBM para a evolução da Internet, elevando-a ao status de
a longas distâncias, provenientes de projetos com finalidades
infraestrutura global necessária aos negócios do século XXI .
militares e científicas nos Estados Unidos, respectivamente.
Foi o início da era das transações eletrônicas via Internet, hoje
A ARPANET introduziu alguns conceitos importantes como
tão comuns nos bancos e nas lojas virtuais. 37
redundância e transmissão por pacotes, ao passo que a NFSNET,
que posteriormente absorveu os nós da rede ARPANET quando A IBM criou ainda várias tecnologias que ajudaram a Internet a se
essa foi dissolvida, criou o backbone que deu origem à Internet. estabelecer como ferramenta essencial para a era da informação.
A IBM participou ativamente na NSFNET em conjunto com Isso ocorreu, por exemplo, com o advento da plataforma de
a operadora MCI, o Estado de Michigan e um consórcio de software Websphere, que permitiu a integração de diversos
universidades norte-americanas. Muitas tecnologias inovadoras sistemas à Web e do World Community Grid, onde se mostrou
e novos produtos foram desenvolvidos utilizando-se o protocolo como a Internet pode ser aplicada de forma inteligente em
TCP/IP, sob uma forte disciplina de gerência de projetos. No projetos de larga escala e apoiar iniciativas sociais globais.
início a NSFNET interligou cerca de 170 redes nos EUA e já em
Se é verdade que ao refletir sobre o passado é possível planejar
1995 alcançou 50 milhões de usuários em 93 países. A partir
melhor o futuro, a reflexão sobre as contribuições da IBM para a
desse momento ocorreu a transição comercial dessa rede para
evolução da Internet nos faz pensar não somente nas inovações
as operadoras de telecomunicações.
já introduzidas e seus impactos, como também nos permite
2. Quando o IBM Personal Computer (IBM 5150) foi anunciado vislumbrar um futuro de progresso e benefícios que a tecnologia
em 1981, ele se tornou o produto líder na transformação que ainda poderá trazer à humanidade.
estendeu as fronteiras da computação ao grande público. A
Para saber mais:
presença do PC em lares, escolas e empresas tornou-o o
http://www.ibm.com/ibm100/us/en/icons/internetrise/
dispositivo que popularizou a Internet na década seguinte. O
http://www.ibm.com/ibm100/us/en/icons/worldgrid/
IBM PC trouxe o conceito de arquitetura aberta para os micros
http://www.ibm.com/ibm100/us/en/icons/ebusiness/
através da publicação do seu projeto, permitindo que outras
empresas criassem software e periféricos compatíveis com essa

Technology Leadership Council Brazil


Governança, Risco e Conformidade
Hugo Leonardo Sousa Farias

Ao longo dos anos, a Tecnologia da Informação se tornou a


espinha dorsal para o negócio de muitas empresas e deixou de
ser uma opção, tornando-se um diferencial competitivo. Entretanto
essa dependência exige muitos cuidados, tais como garantir
que os investimentos em TI gerem valor ao negócio, que os
processos de TI sejam eficientes e que a disponibilidade das
operações seja mantida, além da necessidade de aderência
aos processos contratuais, aos mecanismos regulatórios e à
legislação vigente.

Para endereçar esses desafios, as empresas recorrem cada


vez mais aos modelos e frameworks de Governança, Gestão
de Riscos e Conformidade (Compliance) ou simplesmente GRC.
Esses termos por muito tempo viveram em “ilhas”, como se
cada um observasse o outro a partir da sua respectiva “praia”, e
raramente uniam seus esforços, recursos, processos e sistemas
para alcançar objetivos comuns. Felizmente isso vem mudando, Por fim, Conformidade é o ato de aderir e demonstrar adesão a leis
pois tratar de GRC sob uma perspectiva integrada tem chamado e regulamentos externos, assim como a políticas e procedimentos
a atenção de muitas empresas. corporativos. Controles internos devem ser implementados para
garantir ainda a eficiência das operações e a confiabilidade dos
De acordo com o ITGI (IT Governance Institute), Governança
relatórios financeiros. As “não-conformidades” custam caro,
é o conjunto de responsabilidades e práticas exercidas pelos
podem gerar impacto financeiro e afetar a imagem da empresa.
executivos e pela alta direção da empresa com o objetivo de
fornecer orientação estratégica, assegurando que os objetivos da Uma pesquisa da Advanced Market Research com empresas
38
companhia sejam alcançados e que os recursos sejam utilizados nos Estados Unidos, estimou os investimentos em GRC, no ano
de forma responsável. de 2010, em US$ 29,8 bilhões, um crescimento de 3,9% em
relação ao ano anterior.
Existem padrões e guias internacionais de boas práticas de
governança de TI que podem ser utilizados como referência, Governança de TI, Gestão de Riscos e Conformidade não devem
tais como: COBIT (Control Objectives for Information and related ser tratados como disciplinas isoladas pois a gestão centralizada
Technology), um framework de boas práticas de TI; ITIL (IT dessas atividades é uma tendência irreversível. Além disso,
Infrastructure Library), um conjunto de melhores práticas para o GRC é parte integrante da gestão corporativa e proporciona o
gerenciamento de serviços de TI; ISO/IEC 27001, um padrão de alinhamento estratégico com o negócio e a entrega de valor, além
sistema de gestão de segurança da informação, dentre outros. de uma melhor gestão dos recursos e do desempenho da TI.

A definição de Gestão de Riscos do Risk IT Framework, Com a crescente exigência do mercado (interno e externo)
determina que essa atividade deve envolver todas as unidades por transparência e responsabilidade, as melhorias em GRC
de negócios da organização para prover uma visão abrangente representam um diferencial competitivo que pode proporcionar
de todos os riscos relacionados à TI. Uma estrutura corporativa crescimento e abertura de novos mercados para as empresas.
de gerenciamento de riscos (Enterprise Risk Management) É a convergência de três áreas de conhecimento fazendo a
proporciona um maior alinhamento com o negócio, eficiência diferença. 1 + 1 + 1 nesse caso é muito mais do que 3.
dos processos de TI, maior disponibilidade das operações com
Para saber mais:
uma consequente redução de incidentes, tudo isso gerando valor
http://pt.wikipedia.org/wiki/GRC
ao negócio. Em empresas prestadoras de serviços, a gestão
http://www.isaca.org/Knowledge-Center/
de riscos pode representar oportunidades de novos negócios.

Technology Leadership Council Brazil


Especial Centenário da IBM: IBM Tape: Quebrando barreiras no armazenamento de dados
João Marcos Leite

Que a quantidade de dados digitais gerados no mundo cresce para aumentar o desempenho na transferência de dados com
exponencialmente todos já sabemos. O número de fontes de os servidores e a adoção de microcódigo dentro do dispositivo.
informações é cada vez maior, pois existem computadores Assim, as funcionalidades que foram desenvolvidas primeiramente
conectados em rede em quase todos os lares, escolas e empresas, para as unidades de fita também ajudaram significativamente
e se considerarmos os smartphones, tablets, videogames e na evolução tecnológica dos subsistemas de disco.
demais dispositivos eletrônicos existentes em nosso cotidiano,
A influência que o armazenamento de dados em fitas magnéticas
a lista dos potenciais geradores de dados torna-se realmente
trouxe ao mundo computacional foi mais além: criou o conceito
muito extensa.
de armazenamento hierárquico, com dados online e offline a
Esses dados, quando relacionados aos negócios, passam custo variável; levou ao nascimento da mais importante aplicação
a ser fundamentais para a sobrevivência das empresas, de gerenciamento de dados: o backup/restore; viabilizou a
independentemente de seu porte. Daí surge a questão: onde portabilidade de dados para proteção remota e integração
guardar tanta informação? E se esses dados forem perdidos entre empresas; e permitiu o arquivamento de dados por longa
por algum motivo, como recuperá-los de forma rápida, com o duração para atendimento às regulamentações de retenção
mínimo de impacto nos negócios? de informações. 39

Há mais de meio século, uma invenção da IBM responde a Nesses quase sessenta anos, nos quais saltamos dos meros
essas perguntas: as unidades de fita magnética. Elas têm 2 MB por carretel de fita (no modelo IBM 726) para 4TB por
desempenhado um papel essencial na proteção dos dados cartucho no modelo mais recente (IBM TS1140) e a taxa de
empresariais, principalmente aqueles que necessitam ser retidos transferência de dados passou de apenas 12,5 kB/s para 800
por longos períodos de tempo, a um custo menor do que o MB/s (sem considerar a compressão), foram muitas as conquistas
armazenamento em discos magnéticos. dos engenheiros que participaram no desenvolvimento dessa
tecnologia, com ideias inovadoras e revolucionárias que
O primeiro modelo comercial anunciado pela IBM em 1952, a 726
trouxeram para a TI a possibilidade de processar e proteger
Magnetic Tape Recorder, marcou a transição do armazenamento
cada vez mais informações, bens intangíveis e de grande valor
de dados em cartões perfurados para um meio magnético. No
para as empresas.
início, o maior desafio foi convencer os usuários, que antes podiam
inspecionar visualmente os registros através das perfurações As unidades de fita evoluíram de várias formas e ainda
dos cartões, a aceitarem um novo meio físico onde não se podia permanecem como o meio de armazenamento de dados com
mais ver os dados a olho nu. Somente após os usuários se a melhor relação custo/benefício, de modo flexível e escalável,
acostumarem com essa quebra de paradigma do armazenamento para atender às maiores demandas das aplicações de negócio,
digital é que foi possível começar o desenvolvimento de outros quebrando barreiras a cada nova geração. Essa tecnologia tem
dispositivos magnéticos, como os discos IBM RAMAC e todos mantido o fôlego por quase sessenta anos, e promete ainda
os demais que vieram desde então, impulsionando fortemente muito mais para, pelo menos, os próximos quarenta.
o desenvolvimento da Tecnologia da Informação.
Para saber mais:
Diversas tecnologias criadas pela IBM para as unidades de fita www.ibm.com/systems/storage/tape/index.html
foram posteriormente adotadas nos discos magnéticos, como os www.ibm.com/ibm/history/exhibits/storage/storage_fifty.html
cabeçotes thin-film, a utilização de memória cache intermediária

Technology Leadership Council Brazil


O novo Bug do Milênio?
Sergio Varga

A nova versão do protocolo IP (Internet Protocol) que vem a IPv6. Como ficam então os programas, aplicativos, sistemas e
substituir a versão IPv4 atualmente vigente, será a IPv6. Esta websites que ainda não suportam o protocolo IPv6? Visualiza-se
mudança permitirá a conexão de cerca de 3,4x10 endereços
38
uma enorme oportunidade para serviços, venda de hardware e
ao invés dos 4 bilhões de endereços suportados hoje. Conforme software, consultoria, desenvolvimento e treinamento para apoiar
descreveu Luís Espínola no primeiro livro de Mini Paper, o fim as empresas que necessitarão adequar suas aplicações ao
acabou chegando mesmo antes de 2012, pois em Fevereiro novo protocolo. Não podemos nos esquecer ainda do potencial
de 2011 os últimos blocos livres de endereçamento IPv4 foram que essa conversão trará, pois todo equipamento que suporte
alocados pela Internet Assigned Numbers Authority (IANA). o protocolo IP, tais como celulares, televisões, computadores,
eletrônicos, gadgets e o que mais se imaginar precisará utilizar
Isso significa que qualquer instituição que necessite de um novo
o novo protocolo. Abre-se então um leque inimaginável de
endereço IP oficial, conseguirá somente com um dos cinco
oportunidades.
orgãos regionais que, porventura, ainda detenham endereços
disponíveis. Ao término dessa reserva, as empresas Uma boa saída seria converter as aplicações para
terão que buscar alternativas tais como outsourcing, o IPv6 através de formas alternativas, utilizando-
colocation (hospedagem de computadores em se de recursos tais como proxies, gateways e
outra empresa), etc. NAT (Network Address Translation), mapeando
endereços inválidos para endereços oficiais, no
Há quem fale que esse será o novo bug do milênio.
entanto isso implicaria em uma possível perda
Os profissionais de TI que estavam no mercado
de desempenho das aplicações, causada pela
de trabalho antes de 2000 devem se lembrar do
criação de hops adicionais de tráfego.
frisson que ocorreu nos últimos anos antes da
virada do ano 2000, em especial no final de 1999. O IPv4 durou cerca de 30 anos e, por enquanto,
Na maioria dos sistemas, o ano era codificado não se consegue nem pensar que algum problema
com dois dígitos e isso poderia causar grandes de esgotamento venha a ocorrer com o IPv6, pois,
40
problemas naqueles que utilizavam datas para nesse caso, mesmo se cada um dos 7 bilhões
efetuar cálculos. Por exemplo subtrair 99 de 00 era de habitantes da Terra tivessem 50 dispositivos
obviamente diferente de subtrair 1999 de 2000. Logo, com acesso à Internet, ainda seria possível o
foi necessário aumentar o campo “ano” para quatro dígitos, o endereçamento. Mas, no ritmo do avanço tecnológico, não
que causou muita correria para alterar os sistemas legados. No seria surpresa se daqui a 80 anos, por exemplo, os endereços
final das contas não se soube de grandes problemas ocorridos voltarem a se esgotar.
após aquele tão esperado Reveillón.
Diferente do bug do ano 2000, a adoção do protocolo IPv6 é um
Mas o que está acontecendo hoje? Temos praticamente toda a problema menos crítico pois, aparentemente, há tempo suficiente
Internet utilizando IPv4 e sem a possibilidade de crescimento no para a migração. É provável que os setores de entretenimento
seu atual espaço de endereçamento. Logo, torna-se necessário e marketing venham a impulsionar essa mudança, pois são os
começar efetivamente a migração para o IPv6. Segundo o que necessitam atingir grandes volumes de consumidores e
levantamento efetuado pela ARBOR Networks, o volume de o IPv6 poderá ser uma solução para agilizar esse processo.
tráfego IPv6 em 2008 foi de 0,0026% do total e no ano seguinte
Para saber mais:
ainda se manteve nessa ordem. Ainda existem milhares de
http://inetcore.com/project/ipv4ec/index_en.html
aplicações que utilizam o IPv4, mas por outro lado, as grandes
http://validador.ipv6.br/index.php?site=www.ipv6.br&lang=pt
empresas já estão disponibilizando produtos compatíveis com

Technology Leadership Council Brazil


Manutenções de sistemas na velocidade do negócio
Luiz Phelipe A. de Souza

Imagine o seguinte cenário: O Natal está chegando, época A escrita de uma regra, com um vocabulário criado a partir do
de maior faturamento de uma grande empresa de varejo, e as jargão da organização, deve ser algo tão simples e natural
expectativas de vendas são altas. Essa empresa, analisando como: “se a idade do motorista for menor que 20 anos então
seu mercado, percebe que ações do concorrente começam a considere o motorista inexperiente”.
ter impactos nos seus resultados e que, seguindo a tendência,
Ponto fundamental também considerado por especialistas nesse
os números esperados para o fim do ano podem estar
tipo de tecnologia é a governança e controles de acesso aos
comprometidos. A estratégia precisa ser revista. Regras do
artefatos criados a partir da ferramenta. Para uma adoção com
negócio precisam ser modificadas para tentar reverter o quadro.
baixo risco para o negócio da empresa, acessos devem ser
A equipe de TI precisa ser envolvida. Os sistemas que suportam
permitidos (ou negados) até o momento de publicação quando a
a operação da empresa precisam considerar as novas regras e
regra alterada passaria a vigorar (sendo consumida por sistemas
é preciso alterar seus códigos-fonte. Sobrecarregada por várias
legados). Esse tipo de funcionalidade permite uma adoção mais
outras de-mandas, a equipe de TI dá prazos que não atendem
segura, evitando mudanças de regras com imediato impacto
às necessidades dos usuários.
nos sistemas da organização.
Um cenário similar a esse pode ser identificado em todas as
A implementação de uma ferramenta de regras de negócio em
organizações que hoje dependem de sistemas de TI para
sistemas complexos não é tarefa das mais simples. O esforço
funcionar. Impasses como esse e questões de como os sistemas
de extração de lógicas de negócio de sistemas antigos, de
de TI podem ser mais flexíveis o suficiente para garantir a agilidade
regulamentações e normas ou até mesmo da cabeça de
que as áreas de negócio precisam, podem ser equacionadas com
usuários, requer muita análise e atenção. Os benefícios podem
uma separação das lógicas e regras que fundamentam o negó-cio
ser grandes. A medição dos ganhos pode ser feita com base
(que, normalmente, demandam muito de manutenções por parte
na velocidade como o negócio reage a demandas urgentes
dos usuários finais) do restante das funcionalidades do sistema.
ou mesmo nas atividades de TI que pode ter seu backlog de
O componente onde as regras podem ser implementadas e
manutenções reduzido.
mantidas deve prover mecanismos de fácil manuseio, inclusive 41
por pessoas não diretamente envolvidas no desenvolvimento Qual o desenvolvedor de aplicações que nunca ouviu um pedido
dos demais componentes da aplicação. de alteração com um comentário do tipo: “Deve ser rápido.
É só incluir um IF...” ?
Atualmente, o mercado de TI – clientes e fornecedores – tem
adotado essa abordagem em ferramentas de gestão de regras Para saber mais:
de negócio (BRMS – Business Rules Management Systems). http://en.wikipedia.org/wiki/Business_rules

Em linhas gerais, a ideia original desse tipo de ferramenta é http://www.businessrulesgroup.org

disponibilizar um repositório controlado onde todas as regras http://www.brcommunity.com

de negócio podem ser criadas, mantidas e lidas por pessoas


envolvidas na definição dessas regras (e não, invariavelmente,
por profissionais de TI, conhecedores de linguagens de
programação). Ainda, todo esse conjunto de regras publicados
pode ser, a qualquer momento, consumido por sistemas legados,
independente da tecnologia nas quais foram originalmente
desenvolvidos.

Obviamente, alguns requisitos são primordiais ao correto


funcionamento de um sistema de regras de negócio. O primeiro
– e principal – é na forma de escrita dessas regras. Para que
usuários “não técnicos” possam escrever regras que consigam
ser interpretadas por sistemas de TI, as ferramentas de gestão
de regras fornecem mecanismos e funcionalidades para criação
de um vocabulário próprio para a escrita de regras de negócio.

Technology Leadership Council Brazil


Escalabilidade e Gerenciamento em Cloud Computing
Edivaldo de Araujo Filho

No modelo de Computação em Nuvens (Cloud Computing) os que tange ao custo e à forma dinâmica de se expandir e retrair o
recursos computacionais ficam distribuídos física e virtualmente uso de recursos computacionais associados às necessidades
por diversas localidades, tornando-se transparente aos do cliente e com o máximo de precisão e transparência possíveis.
usuários onde seus dados são armazenados e suas aplicações
O gerenciamento tradicional da infraestrutura de TI sempre
processadas. O crescente uso desse modelo vem modificando
apresentou um controle centralizado e físico das instalações
o cenário atual dos negócios e desafiando os especialistas e
computacionais corporativas. Com o advento da Cloud, a TI
arquitetos de TI na construção dessa nova realidade, na busca
está sendo redesenhada para poder atender à demanda dos
de redução de custos, melhorias no desempenho e aumento
negócios. A gerência desse novo ambiente está enfrentando o
da segurança e escalabilidade dos sistemas de informação.
desafio de não somente manter ativos os recursos operacionais,
O conceito de Cloud está há algum tempo em destaque mas em redefinir um modelo para sua monitoração em ambiente
no mercado e já é uma realidade para muitas empresas, híbrido, com parte da TI tradicional e parte virtualizada e em
principalmente de pequeno e médio nuvem, seja pública ou privada.
porte, as quais já migraram toda ou
Gerenciar TI com Cloud Computing
parte de sua infraestrutura de TI para
pressupõe uma mudança de para-
a nuvem, contratando como serviço
digma na qual os itens de confi-
a solução tecnológica de suporte
guração crescem ou diminuem de
aos seus negócios. Nas grandes
forma acelerada e diversificada.
corporações os CIOs também vêm
Ao se utilizarem nuvens públicas,
buscando fortemente virtualizar suas
soma-se a isso a característica do
infraestruturas, investindo, na maioria
desconhecimento da localização física
das vezes, em nuvens privadas dentro
dos recursos, acompanhada por um
de seus próprios ambientes de TI
modelo virtualizado e distribuído, que
42 (Private Cloud).
exige um gerenciamento autonômico e descentralizado mas
Como a Cloud oferece alta esca-labilidade, tornou-se uma focado nas aplicações de missão crítica e com impacto direto
solução viável para atender de forma inteligente à demanda no core business e nos serviços dos clientes.
por automação requerida pelos negócios, associada a uma
A demanda crescente não só por infraestrutura, mas por
utilização efetiva e otimizada dos recursos computacionais. O
aplicações na nuvem impulsiona investimentos acentuados
tema da escalabilidade já foi tratado anteriormente no paradigma
em virtualização e automação dos ambientes de TI, sejam nos
computacional de Grid Computing, o qual já se preocupava
provedores dos serviços de Cloud ou em grandes corporações
com o uso inteligente da infraestrutura de TI, especialmente
que estão buscando nuvens privadas. A busca por Cloud é
com relação à capacidade de expansão (excesso) e redução
uma forma da TI atender ao crescimento do negócio, associado
(escassez) dos recursos tecnológicos, de acordo com o demanda
a data centers cada vez mais complexos, e ainda manter a
dos sistemas em operação.
conformidade com a consolidação de equipamentos, economia
Com o cenário de Cloud Computing, a escabilidade proporciona de espaço e principalmente, redução de consumo de recursos
um novo conceito, de crescimento elástico virtual e não físico do como energia e refrigeração.
Data Center. Para os clientes torna-se conveniente essa nova forma
Para saber mais:
de comercializar aplicações e dados, cujos volumes crescem e
www.eecs.berkeley.edu/Pubs/TechRpts/2009/EECS-2009-28.pdf
diminuem de acordo com a situação. A escalabilidade evidencia
www.ibm.com/cloud-computing/
uma série de ganhos na infraestrutura de TI, principalmente no

Technology Leadership Council Brazil


A evolução da Web na direção dos negócios
Márcio Valverde

Como o leitor dos Mini Papers do TLC-BR pode notar, há uma a compatibilidade com as aplicações atuais, é uma linguagem
clara evolução nas tecnologias da Web, as quais caminham mais dinâmica e capaz de oferecer um ambiente mais estruturado
fortemente em direção a proporcionar experiências cada vez e seguro do que todas as suas versões anteriores.
mais ricas, inteligentes e interativas aos usuários.
Na HTML5 a simplicidade tomou o lugar dos antigos scripts
Em um mercado crescente e dinâmico como o atual, no qual complexos e cheios de detalhes, e ainda por cima trouxe uma
os usuários exigem cada vez mais velocidade e facilidade na série de novas funcionalidades abrangentes e interessantes,
interação com as aplicações Web, é natural observar o surgimento tais como:
de novas tecnologias para atender a essas demandas.
1. A possibilidade de localizar serviços e outros fins que
A Web semântica, por exemplo, busca organizar o conhecimento estejam próximos à posição geográfica do usuário através
armazenado em arquivos e páginas da rede. Esse conceito de Geolocation;
vem da compreensão da linguagem humana por parte das 2. O uso de Speech Input, bastante útil na acessibilidade
máquinas, para a recuperação da informação. Algumas empresas de aplicações por parte de usuários com necessidades
fornecedoras de tecnologia já oferecem funcionalidades da web especiais;
semântica em seus produtos, tornando-os capazes de otimizar 3. Maior rapidez e agilidade no tráfego de streams de áudio
o fluxo de informações e gerar resultados mais inteligentes em e vídeo;
suas buscas, possibilitando aos seus clientes mais precisão e
4. Inclusão de threads, chamadas de WebWorks, que per-
agilidade na tomada de decisões.
mitem executar mais de uma atividade ao mesmo tempo
Em outra vertente de desenvolvimento da Web, a busca pela em uma página web, reduzindo bastante o tempo de
disponibilidade de dados conforme as necessidades de cada processamento e resposta.
usuário e pela transformação da informação em conhecimento
Nesse ambiente em constante evolução, muitas empresas já
fizeram com que diversas empresas (como Apple, Google, IBM,
começam a repensar a maneira de construir suas aplicações Web
Mozilla, etc.), se unissem em um consórcio para colaborar na
e como irão distribuir esses novos serviços. As possibilidades vão 43
construção da quinta geração da linguagem mais conhecida da
desde a utilização de smartphones, tablets, TVs digitais interativas,
Internet, a HTML, que apesar de ter sido projetada para manter
redes sociais e até computação em nuvem, permitindo que as
empresas usem a Web como plataforma de negócios e estreitem
cada vez mais a relação entre consumidores e fornecedores,
aumentando assim o potencial das oportunidades de negócios,
em uma escala global.

Não estamos diante de uma revolução, mas sim de uma evolução


na maneira de fazermos negócios, mas devemos ficar atentos
a esse “Admirável Mundo Novo”, o qual está se configurando
como um componente importante na construção de um planeta
mais inteligente, capaz de interligar povos e mercados em um
novo patamar.

Para saber mais:


http://www.youtube.com/watch?v=DHya_zl4kXI

http://www.youtube.com/watch?v=ei_r-WSoqgo

Technology Leadership Council Brazil


Agilidade Financeira em TI
Rodrigo Giaffredo

As empresas operantes no Século XXI têm, entre outros, o desafio assim o nível de intensidade da participação da área no
de se manterem modernas e inovadoras, num momento em desempenho do negócio.
que a propagação da informação em alta velocidade, e o fácil
Vamos nos ater ao exemplo “Gastos com TI versus receitas
acesso a conteúdos técnicos, leva ao surgimento de uma nova
totais”, abordado no artigo supracitado, e representar grafi-
geração de pensadores criativos.
camente a comparação através de uma matriz (veja figura),
Quando se fala em modernização e inovação, tecnologia é situando a interseção entre esses dois pilares em quadrantes
assunto recorrente. Ainda que ideias criativas nem sempre nas seguintes cores:
esbarrem em componentes tecnológicos sofisticados, é fato
1. Amarela: receitas totais e gastos com TI movem-se na mesma
que organizações mais automatizadas, seja nas atividades
direção; caso a interseção ocorra no quadrante superior direito,
principais ou nas de suporte, lideram a disputa por mercados.
o ideal é que o gasto com TI varie menos em % do que a receita,
Tradicionalmente, os gastos com a “acelerando” a lucratividade. Já no
TI (Tecnologia da Informação) são caso de a interseção ocorrer no
considerados despesas. Porém, as quadrante inferior esquerdo, a
empresas jovens e lucrativas redução % do gasto de TI deve ser
quebraram esse paradigma, ao maior do que a da receita, “freando”
considerá-los como investimentos a perda de margens.
importantes para o desbravamento
2. Verde: receitas crescem e gastos
de mercados, criação de produtos,
com TI diminuem. Aparentemente
e manutenção da competitividade.
perfeito, porém é importante ana-
Com isso, o papel da TI no desem-
lisar se o orçamento da TI está
penho financeiro corporativo, vem
sendo preterido na organização
migrando do status de coadjuvante
44 (a chamada “miopia do gasto”, e
(mero centro de custos e provedor
não economia de fato).
de serviços), para o de agente de
mudança no sucesso financeiro 3. Vermelha: período crítico no qual
do negócio. as receitas diminuem, e os gastos
com TI aumentam. Tempo de revisar
Para medir o desempenho da TI nas
o orçamento da área, priorizando
organizações, é preciso entender que métricas isoladas não
investimentos criativos e com ótima relação de custo-benefício.
contam toda a história. Avaliar os resultados das variações
horizontais (período corrente versus períodos anteriores) ou Essa é uma das possibilidades de utilização da análise financeira
verticais (gasto da TI sobre o total dos gastos) não é suficiente para multidimensional no âmbito da TI (outro exemplo é o Balanced
aferir o papel das áreas de tecnologia na eficiência corporativa. Scorecard, metodologia de medição e gestão de desempenho
No artigo “IT Key Metrics Data 2011” (Gartner, dezembro de 2010), organizacional através da utilização de indicadores financeiros,
os autores, afirmam que é necessário “avaliar o desempenho da comerciais, de processos internos e de aprendizado/crescimento),
TI no contexto da organização, a fim de comunicar corretamente e cabe aos executivos CxO (inclusive CIOs) combiná-las no intuito
o valor e o significado da atuação dessa área no alcance dos de gerar informações preditivas sobre o mercado, e assegurar
resultados.” Opinião semelhante é citada no relatório “Global longevidade e agilidade nos mais variados contextos.
Banking Taxonomy 2010” (IDC Financial Insight, julho de 2010). Para saber mais:
Partindo dessa premissa, as organizações eficientes devem http://www.gartner.com/DisplayDocument?id=1495114

aferir o desempenho da TI, apoiadas no tripé “TI como % da http://www.idc-fi.com/getdoc.jsp?containerId=IDC_P12104

receita, das despesas, e da mão-de-obra”, compreendendo

Technology Leadership Council Brazil


Gestão de Custos de TI
Anderson Pedrassa

Entender e comunicar a produtividade da Tecnologia da O Custo Padrão possibilita uma base de comparação entre
Informação em termos relativos a outras métricas de negócio é áreas, unidades de negócios, localidades, depar-tamentos
obrigatório, segundo o Gartner. Tratar a dinâmica do investimento e fornecedores, com seus respectivos esta-belecimentos e
em TI apenas como Percentual da Receita, métrica mais utilizada, acompanhamentos de metas de custos, podendo, inclusive, ser
pode inviabilizar o entendimento de tendências importantes e utilizado com a finalidade de apoiar a elaboração de orçamentos.
não reflete, de fato, a contribuição da TI para os resultados da
Para se chegar ao Custo Padrão deve-se coletar o consumo
operação de uma empresa.
direto de recursos de TI, tais como o dos sistemas operacionais,
Como componente importante da equação da produtividade gerenciadores de bancos de dados, infraestrutura de Internet,
da TI, a Gestão de Custos de TI tem a missão de medir para sistemas de correio eletrônico, servidores de rede e impressão
gerenciar; medir para fazer mais com menos. Muitos gestores e qualquer outro sistema, aplicação ou appliance. O consumo
sabem quanto custa a operação de TI (quanto se paga) mas, pode informar tempo de processamento, utilização de memória,
por falta da transparência dos custos, veem a TI como uma operações de entrada/saída (IOPS, Input/Output Operations
caixa-preta que gera gastos Per Second), armazenamento,
significativos e crescentes. Dar a tráfego de rede, operações de
visibilidade desses custos pode bancos de dados, entre outros.
revolucionar a forma como as De fato, tudo o que é consumido
empresas consomem os recursos pode ser registrado em arquivo e
(internos e externos) e aumentar o mensurado para efeito de apuração
foco nos investimentos em TI que, de do Custo Padrão.
fato, contribuam para os resultados
A Gestão de Custos de TI produz
dos negócios dessas empresas.
dados que, explorados com o apoio
Para tanto, uma etapa importante de ferramentas de BI (Business
45
consiste na definição de processos Intelligence), permitem conduzir
internos para identificar e medir os simulações, previsões, apoiar o
fatores diretos e indiretos formadores Capacity Planning e aumentar a
de custo. Esses gastos e desembolsos incluem despesas com eficiência operacional. Uma maior compreensão dos custos
funcionários, hardware, software, espaço físico, contratos, de TI também lança luz sobre a questão da comparação entre o
impostos, terceirização, energia elétrica, água, luz, telefone, custo para desenvolvimento versus o custo operacional total da
refrigeração, depreciações e amortizações. aplicação ou sistema, revelando que o primeiro perde importância
quando o ciclo de vida das aplicações aumenta para cinco ou
Alguns gastos podem ser diretamente associados a um sistema,
dez anos, por exemplo.
aplicação ou serviço. Entretanto, despesas compartilhadas devem
seguir outro critério, normalmente o da proporcionalidade de Uma Gestão de Custos de TI efetiva, ajuda a mostrar com números
uso, no qual sistemas ou clientes que consomem mais recursos a verdadeira contribuição da Tecnologia da Informação para o
compartilhados devem pagar mais. Esse rateamento eleva a resultado financeiro de uma empresa. Em tempos em que bons
maturidade da gestão de custos de TI e por isso requer uma motoristas têm desconto no seguro do carro e pessoas com
nova métrica, chamada Custo Padrão, que define valores para hábitos saudáveis passam a ter desconto no plano de saúde,
as unidades de recursos ou de serviços de TI, formando um faz sentido que sistemas mais eficientes sejam recompensados
catálogo de preços no qual, por exemplo, constam o custo do de alguma maneira.
minuto de processamento, do gigabyte de armazenamento e
Para saber mais:
do kilobyte trafegado na rede. Outros valores tais como o custo
http://www.gartner.com/technology/metrics/communicating-it-metrics.jsp
por transação de banco de dados, por timeout ou deadlock e
http://www.mckinseyquarterly.com/Unraveling_the_mystery_of_IT_costs_1651
até por erro grave de programação, podem revelar aplicações
menos eficientes e que são grandes consumidoras de recursos.

Technology Leadership Council Brazil


FCoE, a integração das redes LAN e SAN
André Gustavo Lomônaco

Há cerca de dez anos, artigos comparavam os sistemas de


telefonia tradicionais com os, até então, novos sistemas de
telefonia baseados no protocolo Internet (IP). Enquanto fatores
como baixo custo de aquisição e confiabilidade eram associados
aos sistemas tradicionais, salientava-se o retorno do investimento
dos sistemas de telefonia IP pela redução de custos através
da utilização dos mesmos meios já utilizados pela rede de
dados e também pela unificação da equipe de suporte com o
conhecimento de ambas tecnologias, eliminando-se distintas
equipes dedicadas.

Atualmente presenciamos a convergência entre outras duas


importantes tecnologias: as redes locais de dados (LAN) que espaço físico requerido pelo servidor, na quantidade de switches
utilizam o protocolo Ethernet para o envio e recebimento de dados de rede e no cabeamento necessário. Esse novo adaptador
e as redes locais de armazenamento de dados (SAN) que utilizam inclui o protocolo Ethernet que foi redesenhado para encapsular
o protocolo Fibre Channel (FC) para transportar comandos e e transportar também o tráfego do protocolo FC tornando-o
dados entre servidores e sistemas de armazenamento. Essa disponível para uso imediato por parte dos atuais equipamentos
integração, fundamentada em um novo protocolo denominado de armazenamento de dados.
Fibre Channel over Ethernet (FCoE), poderá trazer para a área
Como o overhead necessário para encapsular o tráfego de
da Tecnologia da Informação impactos e benefícios semelhantes
um protocolo por dentro do outro gira em torno de 2% do total
aos que a telefonia IP trouxe nos últimos 10 anos.
trafegado, pode-se considerar que o desempenho geral, quando
Embora essas redes distintas possam ser integradas atualmente se compara FC com FCoE, é praticamente o mesmo. E embora
com técnicas que utilizam protocolos de empacotamento de o custo atual do adaptador CNA ainda seja superior ao do
46
comandos e dados, tais como os protocolos iSCSI, FCIP e adaptador HBA, essa diferença vem diminuindo com o tempo,
iFCP, o nível de integração e os benefícios obtidos através do devido ao aumento nas vendas e na utilização dos adaptadores
protocolo FCoE superam os das atuais técnicas de integração, CNA, especialmente em novas implementações.
conseguidos ao se compartilhar em um único meio físico tanto
Mas, principalmente para os profissionais não tecnicos de TI,
o tráfego de dados das redes locais quanto o de operações de
ainda pode ficar no ar a dúvida se a migração para essa nova
entrada e saída dos periféricos de armazenamento.
tecnologia não será muito demorada e difícil. De fato, além da
Atualmente um servidor que exija acessos redundantes a redes troca da tecnologia em si, será necessário formar profissionais
necessita ser configurado com dois adaptadores de conexão à que detenham conhecimento de ambas as redes (LAN e SAN),
rede de armazenamento (HBAs) e dois adaptadores adicionais o que demandará esforços consideráveis, mas o retorno
para a rede local de dados, isso sem considerar as demais desse investimento deverá ser rápido e compensador, uma
conexões para as interfaces de gerenciamento do equipamento. vez que a consolidação dessas redes permitirá atender de
forma mais otimizada os requisitos de segurança, desempenho,
No novo cenário de consolidação, habilitado pelo FCoE, todo
escalabilidade e disponibilidade das aplicações que suportam
tráfego LAN e SAN passa a ser encaminhado através de um
as áreas de negócio.
novo adaptador denominado Converged Network Adapter (CNA),
obtendo-se vantagens na redução do número de adaptadores Para saber mais:
em cada servidor, no consumo de total de energia elétrica, no http://www.redbooks.ibm.com/redpapers/pdfs/redp4493.pdf

Technology Leadership Council Brazil


Poder, muito poder, de processamento
Fernando de Moraes Sprocati

Desde sua popularização no final dos anos noventa, os resultados. Hoje já existem, inclusive, aplicações com detecção
computadores pessoais vêm tendo seu uso cada vez mais de GPUs compatíveis que ativam automaticamente seu uso.
diversificado. De meras máquinas eletrônicas de digitação até
Usando-se GPUs é possível dobrar o desempenho das aplicações
centrais multimídia e multitarefa, foram incorporando cada vez
sem ter que investir em hardware caro, pois para essa ordem
mais recursos e poder de processamento.
de grandeza de ganho de desempenho não é necessário usar
Um grande salto nesse poder de processamento veio com a GPUs poderosas. Mas, independente disso os fabricantes de
utilização de processadores específicos para lidar com vídeo, GPUs seguem aumentando a capacidade de processamento de
tarefa bastante exigente principalmente em função dos jogos seus produtos, a ponto de ser possível hoje montar um desktop
com visuais cada vez mais realísticos. com poder de cálculo de 2 TeraFLOPS usando GPUs a um
custo aceitável para usuários domésticos. Como referência, uma
Conhecidos pelo jargão “GPU” (Graphical Processor Unit),
das CPUs mais avançadas da atualidade (Intel Core i7 980X
os processadores gráficos possuem enorme capacidade
EE) atinge “apenas” 100 GigaFLOPS, ou seja, uma média de
de processamento numérico e, atualmente, possuem muitas
desempenho vinte vezes menor.
centenas de núcleos, enquanto que as CPUs (mesmo aquelas
mais modernas) apresentam no máximo 16 núcleos — que até Entretanto, ainda existem gargalos nessa tecnologia, princi-
podem ser “duplicados” com o mecanismo de hyperthreading. palmente no que se refere à capacidade de transferência de
E apesar das GPUs possuírem núcleos mais simples do que dados entre a memória principal da CPU e a memória das GPUs,
os das atuais CPUs, atingem um desempenho muito superior ponto que já está sendo endereçado pelos fabricantes, o que
em processamento numérico. eleva o potencial de utilização das GPUs para fins gerais.

Foi pensando nesse potencial que se desenvolveu a linguagem A disseminação de aplicativos que utilizem a OpenCL pode nos levar
OpenCL (Open Computing Language), com o objetivo de tornar a um novo patamar de desempenho simplesmente aproveitando
possível executar programas comuns nas placas gráficas, as de maneira mais inteligente a capacidade de processamento que
mesmas usadas para executar jogos. Criada pela Apple e temos instalada em nossos computadores de hoje. 47
posteriormente definida por um consórcio de grandes empresas
Para saber mais:
do setor, tais como AMD, IBM, Intel e NVIDIA, entre outras, a
http://www.khronos.org/opencl/
OpenCL vem obtendo uma crescente adoção no mercado.
http://www.alphaworks.ibm.com/tech/opencl/
Para aproveitar os benefícios oferecidos pelos recursos das
placas gráficas é preciso reescrever as aplicações para que
passem a utilizar o paralelismo, mecanismo através do qual um
programa tem seus múltiplos fluxos divididos entre os núcleos
de processamento. Esse esforço é amplamente recompensado
pelos ganhos de desempenho, usualmente na ordem de 100
vezes. Um dos fabricantes publicou casos de altos ganhos de
desempenho, superiores a 2.500 vezes.

As aplicações que mais se beneficiam desse novo recurso são


aquelas que envolvem pesados cálculos numéricos, como
os da indústria do petróleo, área financeira, dinâmica dos
fluídos, processamento de sinais, cálculos sismológicos e
simulação, entre outras.

A princípio, qualquer aplicação poderia ser executada nas


GPUs. Até sistemas gerenciadores de bancos de dados já
foram portados para esses processadores, obtendo-se ótimos

Technology Leadership Council Brazil


O Poder da Tecnologia Social
Marcel Benayon

Se hoje em dia todos já nascem “conec- personalizadas com qualquer foto de seus
tados”, me recordo bem de quando entrei fãs na rede. No Brasil, o sucesso inicial
para esse time. Foi em 1992, quando eu do Foursquare em motivar restaurantes a
tinha 12 anos e ganhei de meu pai um mimar quem registrava sua presença no
modem analógico — creio que muitos local passou, mas marcou o início de uma
leitores nem conheceram essa tecnologia era. A União, ao lançar a versão light de
— mas ele, que trabalhava na IBM e era seu açúcar, ofereceu amostras grátis aos
muito dedicado, sempre chegava tarde que duvidaram da qualidade do produto
em casa e adiava a instalação do novo em redes sociais.
equipamento. E foi assim até que um Os líderes de projeto do Service Day, uma
dia, sem conhecimento algum mas com das iniciativas do centenário da IBM em
muita sorte, peguei as ferramentas e que cada funcionário da empresa doou
ecoou o barulhinho do sucesso (do sinal 8 horas do seu tempo para atividades
da portadora do modem)! Dias depois comunitárias, foram treinados para ex-
entrava no ar minha própria BBS (Bulletin Board System), uma plorar mídias sociais na condução das atividades, principalmente
central de troca de mensagens e arquivos. Foi minha primeira nas de captação de voluntários e divulgação de resultados.
experiência de conectividade, aliando tecnologia e sociedade. Derivada das ações virtuais durante o evento, a comunidade da
Como o público era de garotada e a receita baixa, as linhas foram IBM no Rio de Janeiro no Facebook já passou de 500 integrantes
cortadas e o serviço suspenso alguns anos após a inauguração. e é hoje um forte canal de integração.
Quinze anos depois fui surpreendido por uma questão Se antes era difícil entender o capital fluindo junto aos bits e bytes,
tecnológica trazida por um amigo que ouvira falar do Twitter e a utilização social da tecnologia hoje impulsiona o mercado na
tinha sérias dúvidas se iria dar certo. Ele achava que, como não captação de recursos em bolsas de valores. Para alavancar
48
tinha dinheiro ligado diretamente, não haveria base para uma pesquisas e desenvolvimento, o LinkedIn levantou cerca de
receita de sucesso. Lembrei de minha BBS, suas diferenças US$ 350 milhões (mais do que seus US$ 243 milhões de receita
e vínculos com a nova realidade. e 23 vezes seu lucro em 2010). O sucesso na captação da
Hoje não há dúvidas de que as redes sociais são um marco rádio virtual Pandora gerou preocupações, uma vez que o site
tecnológico. Já me acostumei ao calendário no Facebook, aos amarga prejuízos e possui modelo ainda questionável, mas,
contatos no LinkedIn e às informações no Twitter. Mais importante mesmo assim, investidores esperam que a injeção de capital
que isso, as empresas estão fazendo dinheiro fluir por esse dê novos rumos à companhia. O Facebook aguarda sua vez na
caminho, reduzindo a distância de seus clientes a apenas um fila, com estimativas iniciais apontando uma capitalização de
clique do mouse. E a maior publicidade hoje já é clique-a-clique, US$ 10 bilhões, precificando a empresa em US$ 100 bilhões!
uma atualização do antigo boca-a-boca. Será que o mercado vai apoiar essa operação ou teremos pela
frente a formação da “bolha.com 2.0”? Para não me arrepender
Fugindo dos spams, trago exemplos diferentes e pouco
depois, os velhos disquetes de 5 1/4‘’ com arquivos de minha
conhecidos de aplicação de mídia social, como a Jones
BBS ainda estão guardados...
Soda e seus refrigerantes de milho e patê de salmão (entre
64 sabores) que obteve fama mundial ao lançar, via Facebook, Para saber mais:
uma campanha que já vendeu mais de um milhão de garrafas http://www.bspcn.com/2011/03/04/20-examples-of-great-facebook-pages/

Technology Leadership Council Brazil


Meninas e Tecnologia
Cíntia Barcelos

Quando eu era criança adorava ir à feira com meu pai. Tinha Trabalhar com tecnologia envolve criatividade, gostar de resolver
meu carrinho de compras e a diversão era fazer as contas de problemas, ter habilidade para trabalhar em grupo e ser curioso.
cabeça antes dos donos das barracas. Eles não acreditavam que Gostar de estudar é fundamental para se manter atualizado e
o resultado dava certo. E, modéstia à parte, sempre dava. Meu estar em alta no mercado de trabalho. Fazer faculdade é muito
pai me ensinou esse “truque”, assim como a pensar, racionar de importante e a pós-graduação é um diferencial, assim como
forma lógica e a gostar de matemática de uma forma divertida. buscar as certificações profissionais de mercado. Essa carreira
Hoje tenho duas filhas e minha grande preocupação é deixar pode garantir, além de um bom emprego, conhecer e conviver
as opções abertas para que elas possam buscar aquilo que com pessoas muito talentosas. Profissionais de tecnologia são
realmente gostam, seja em matemática, ciências ou artes plásticas. modernos e estão sempre por dentro das novidades. Tem tudo
a ver com meninas, modernas e antenadas.
Infelizmente nem todas têm a oportunidade de se desenvolver
e apreciar as ciências exatas. Acredito que o problema começa Hoje ainda não há um caminho trivial para as mulheres que decidem
cedo na vida delas e a parcela cultural é muito forte. Meninas enveredar pelas áreas de engenharia e tecnologia. Talvez por isso
são constantemente levadas a achar existam poucas nas carreiras técnicas das
que não são boas em matemática e universidades e das empresas. No meu
que tecnologia é chato. Muitos dizem trabalho, por exemplo, são incontáveis
que meninas são melhores nas áreas as reuniões das quais participo em que
humanas e em profissões que envolvem eu sou a única mulher “técnica” na sala.
pessoas e que meninos é que são Mas se existe um preconceito inicial,
bons com números. Eles, além desse esse é facilmente vencido ao se mostrar
incentivo que ocorre naturalmente, competência e conhecimento. Para mudar
têm vários exemplos de homens que esse quadro geral é preciso atuar com as
são engenheiros ou profissionais da meninas desde cedo, mostrando-lhes as
computação, os quais admiram e julgam coisas de forma clara. Pais e professores 49
ter uma carreira bacana. Já as meninas são fundamentais na tarefa de descobrir e
não têm muitos exemplos nos quais incentivar meninas talentosas em ciências
possam se inspirar. exatas a seguirem sua real vocação. E o
que o mercado hoje busca é uma força de
Eu me formei em Engenharia Eletrônica
trabalho diversificada, pois quando homens e mulheres trabalham
e trabalho com tecnologia há 19 anos. Minhas filhas (de 7 e 9
juntos chegam a resultados melhores. O mercado está carente
anos) sempre me perguntam o que faço no trabalho. Venho me
de engenheiros e bons profissionais de tecnologia. Existe uma
aprimorando na resposta com o passar dos anos. É mais trivial
grande oportunidade para mulheres se desenvolverem e crescerem
para elas entenderem o que faz um professor, dentista ou médico.
nessa promissora área.
É parte do dia a dia delas. Comecei a explicação pela parte
da engenharia, que um engenheiro inventa, constrói, conserta Hoje não vou mais à feira pois meu marido (economista) faz
coisas e, resolve problemas. Quase tudo à nossa volta tem a as compras da casa melhor do que eu. Mas eu instalo os
participação de engenheiros. Depois acrescentei a tecnologia. equipamentos eletrônicos, sou o suporte técnico da casa para
Elas nasceram nesse mundo de celulares, tablets, netbooks e assuntos gerais e estudo matemática com minhas filhas. Crianças
são apaixonadas por esses gadgets. Eu as explico que no meu aprendem com exemplos e essa é uma forma doce de dizer-
trabalho eu indico ou aplico tecnologias para que as empresas lhes que podem ser boas em qualquer coisa que gostarem e se
e a comunidade em que vivemos possam funcionar melhor. Eu dedicarem. Mas ainda adoro fazer contas de cabeça. Sempre
faço projetos nos quais a tecnologia tende a tornar tudo mais que chega a conta do restaurante meus amigos me pedem
simples. Engenheiros e demais profissionais de tecnologia criam para ver quanto deu por pessoa...
coisas novas que ajudam a sociedade. É uma forma bem mais
Para saber mais:
bacana de apresentar a área para as meninas, sem vinculá-la
http://anitaborg.org/
a um estereótipo específico de nerd.
http://women.acm.org

Technology Leadership Council Brazil


Sobre Profetas e Bolas de Cristal
Avi Alkalay

Há quem diga que os antigos profetas eram pessoas comuns Neste exemplo, uma previsão desejável – baseada no histórico
que proferiam simples consequências lógicas baseadas em de uma população – é o padrão de compra dos moradores de
observação mais profunda de fatos de seu presente e passado. um certo bairro ou dos clientes de certa faixa de renda ou com
Tudo o que vemos à nossa volta é resultado de alguma ação, certo número de dependentes. Essa análise é útil justamente
tem uma história e um motivo de ser e de existir. para abastecer uma loja com produtos e quantidades certas
ou ainda viabilizar campanhas de marketing direcionadas, com
Em contrapartida, seguindo um mesmo raciocínio científico, se
índice de retorno muito maior.
algo aparentemente “não tem explicação” é porque ninguém se
aprofundou suficientemente nos fatos históricos que o causaram. Outra previsão importante é o quanto será necessário abrir as
comportas de uma usina hidrelétrica a fim de gerar energia
Avancemos no tempo. Hoje, vinte anos após a Internet ter mudado
suficiente para atender a demanda após o último capítulo de
a sociedade e os negócios, o mundo está bastante informatizado.
uma novela popular – hora em que cidades inteiras tomarão
Na prática, isso significa que milhares de computadores
banho ou começarão a passar roupa.
constantemente geram dados em volume torrencial. Seja o
item que passou pelo caixa do supermercado, a placa do carro Parece algo banal mas é um evento histórico que, quando não
capturado pela câmera de trânsito, o perfil visitado na rede tratado, pode causar apagão num estado inteiro. Esse exemplo
social ou o registro de uma ligação telefônica. é real e mostra a intrínseca relação – às vezes nada intuitiva
quando vista isoladamente – entre fatos díspares.
Após ser usada em seu propósito inicial (totalizar uma conta,
multar, etc.), a informação passa a ser dado histórico. Prever ou controlar o futuro tem se institucionalizado como
ciência formal nas disciplinas de Business Intelligence – que
Mas os dados históricos podem ter um valor ainda maior em
tem como objetivo observar indicadores quantitativos a fim de
seguida. Quando agregados em grande quantidade ou dispostos
entender o passado e o presente – e Business Analytics – que
em gráficos, podem mostrar desempenho, crescimento, queda
busca nos auxiliar a fazer as perguntas certas via correlação
e, principalmente, tendências, que é a materialização no mundo
50 entre dados. Seus praticantes têm conhecimento multidisciplinar
dos negócios da eterna busca pela previsão do futuro.
(hidrelétricas e novelas, por exemplo) e usam sua intuição, ambos
“Profetas” modernos trabalham mais ou menos assim: potencializados por sistemas e métodos dessas disciplinas.
1. Identificam diversos repositórios de dados históricos A última palavra em profecias são sistemas que recebem dados e
espalhados numa empresa (ou até fora dela) e os integram
fatos conforme esses vão surgindo e, em tempo real, conseguem
de forma a permitir que sejam acessados em conjunto. Dois
tomar decisões de ajuste e melhoria de desempenho, tais como
exemplos de dados seriam (a) todos os produtos vendidos
dar ou retirar crédito financeiro, comandar operações na bolsa de
numa loja e (b) cadastro de clientes com dados mais
valores ou distribuir carga em uma rede telefônica, entre outras.
genéricos como CPF, endereço e renda mensal. Muitas
vezes os dados são armazenados em data warehouses Prever ou controlar o futuro sempre será algo difícil e portanto
ou data marts e outras vezes descartados após a análise; valorizado. Sistemas e técnicas de análise de negócios são
2. Encontram e modelam relacionamentos entre esses dados. as bolas de cristal modernas que transformaram essa arte em
Por exemplo, o CPF do cliente que comprou tais produtos algo científico e tangível.
e o perfil desse CPF no cadastro geral de clientes;
Para saber mais:
3. Criam visões gráficas que os ajudam a inferir e, even- http://en.wikipedia.org/wiki/Data_mining
tualmente, “prever o futuro” e tomar melhores decisões http://theregister.co.uk/2006/08/15/beer_diapers/
a fim de controlá-lo. Veja que esse fator, ainda bastante
humano, é o mais valioso nesse processo.

Technology Leadership Council Brazil


Cidades inteligentes: o trabalho se move para que a vida siga
Flávio Marim

Uma certa sequência de três imagens um dia pulou de um tolerância e sequer conseguiu se aproximar do local onde trabalha.
pôster na parede do escritório de planejamento da cidade de Aqui, tecnologia e conectividade começam a ser utilizadas
Münster, Alemanha, para ganhar a web em forma de discurso de maneira equivocada e imperam imprudências tais como
em prol da diminuição de carros nas ruas. As fotos mostram um uso de celulares, smartphones, tablets e até laptops, dividindo
comparativo entre o espaço ocupado pelo mesmo número de perigosamente a atenção ao volante e despertando os olhos
pessoas quando utilizam bicicletas, carros e ônibus. Em 2001, atentos dos criminosos.
quando a imagem foi criada, a web, ainda jovem, não inspirou
A conectividade da qual já dispomos, se usada com disciplina,
outras ideias melhores de transporte coletivo e veículos não
nos oferece uma nova maneira de sermos produtivos e focarmos
poluentes. Hoje, com soluções maduras em trabalho remoto
em um bem maior.
e o caos nos fazendo clamar por cidades mais inteligentes,
trabalhar sem sair de casa evidencia o que parecia estar perdido: Empresas como IBM, Xerox e American Airlines, por exemplo,
as cidades ainda podem ser das pessoas. perceberam há anos que boa parte de seus colaboradores pode
produzir em home-office
Qualquer habitante de
o mesmo ou até mais
um grande centro sabe
do que nas estruturas
o valor de evitar horários
convencionais. O tabu
de pico. Ninguém apre-
da falta de produtividade
cia fazer parte do ver-
longe dos olhos da
dadeiro exército que
gerência tem se revelado
se desloca diariamente
exatamente isso: um tabu.
gastando muito tempo
É sabido que em muitos
e paciência enquanto
casos a adaptação ao
emitem toneladas de
trabalho remoto não é
gases venenosos na 51
fácil. É comum surgirem
atmosfera.
conflitos familiares e
Se o transporte público não atende à demanda e veículos não muitas vezes o profissional não consegue garantir o ambiente
motorizados são frágeis demais na disputa por espaço, as apropriado fora da empresa. Isso indica que pode ter chegado
soluções em trabalho remoto podem tirar pressa, desgaste a hora de aplicar em casa a habilidade de se adaptar a um novo
mental e poluição das ruas. ambiente de trabalho. Viver conectado não pode significar um
aumento de tensão. Ao contrário, deve possibilitar que se produza
Estudos mostram que trabalhadores brasileiros gastam uma hora
com mais tranquilidade, dando fôlego às cidades e deixando-
e meia em média por dia se deslocando entre seus lares e locais
as respirar sem o peso de nosso vai-e-vem já desnecessário.
de trabalho, metade dos quais usando automóveis e motocicletas.
São toneladas de CO2 que deixariam de ser produzidas se As pessoas têm nas mãos uma grande chance de quebrar uma
essas pessoas pudessem ficar em suas casas, mas essa é reação em cadeia que tem transformado convívio em disputa. Usar
apenas a ponta do iceberg. Com mais tempo disponível em as tecnologias de trabalho remoto para promover essa quebra cria
suas vidas, a população poderia levar às ruas menos estresse uma grande oportunidade para que surjam as verdadeiras smart
e ansiedade e uma maior predisposição a pequenas atitudes cities: centros urbanos menos poluídos, menos congestionados,
que fazem as verdadeiras cidades inteligentes. com melhor qualidade de vida e povoados de smart attitudes.

Mesmo com essa possibilidade e centenas de ferramentas Para saber mais:


disponíveis, o que se vê é que protocolos básicos do bom http://super.abril.com.br/cotidiano/se-todo-mundo-trabalhasse-casa-667585.shtml
convívio urbano, como respeitar a faixa de pedestres, dar
espaço a ciclistas e ser paciente o tempo todo são desafios
quase inatingíveis para quem já gastou seu estoque diário de

Technology Leadership Council Brazil


Tecnologia especial para a inclusão social
Ilda Yaguinuma

A Organização das Nações Unidas Em termos de avanços tecnológicos para LIBRAS, podemos
(ONU) calcula em 600 milhões o nú- exemplificar softwares que traduzem palavras em português,
mero de portadores de necessidades captam a fala através do microfone e exibem no monitor a
especiais no mundo. Em 1998 a data interpretação na forma gestual e animada em tempo real, oferecem
de 3 de dezembro foi escolhida para interface de chat com apresentação em sinais da escrita em
comemorar o Dia Internacional da língua portuguesa, bem como em língua de sinais e editam
Pessoa com Deficiência. Essa data textos em língua de sinais escrita.
foi especialmente homenageada em
Atualmente já existem sites que ajudam na busca de colocação
2006 como o dia da “e-acessibilidade”,
de pessoas portadoras de necessidades especias para atuação
ou seja, acessibilidade às tecnologias de informação.
no mercado de trabalho. As grandes empresas de TI participam
A estimativa para pessoas com deficiências é de 14,5% da desses sites no intuito de cumprirem o objetivo da Lei de Cotas
população, segundo o Censo 2000 do Instituto Brasileiro de (artigo 93 da Lei Federal 8.213/91), na qual se estabelece que
Geografia e Estatística (IBGE). São pessoas que possuem de 2 a 5% do quadro de funcionários das empresas deve ser
dificuldade de enxergar, falar, ouvir, locomover-se, ou com reservado a pessoas com deficiência.
alguma outra necessidade relacionada à parte física ou mental.
Diversas empresas no Brasil colaboram com organizações que
A tecnologia, seja no avanço da mobilidade física como na atuam na área, tais como Avape, IOS, Impacta e Instituto Eldorado,
expressão da capacitação intelectual, está evoluindo para com atividades de educação e recrutamento de PWD (People
integrar as pessoas de necessidades especiais nos mais variados With Disabilities). Elas colaboram com essa causa através de
segmentos do mercado produtivo. programas de incentivos, acreditando no desenvolvimento da
diversidade da força de trabalho para o futuro.
Na área de sensoriamento visual, desenvolvedores pesquisam
alternativas para adaptar os aplicativos às pessoas com Estudos mostram que promover essa diversidade traz benefícios
52 deficiência. Temos inúmeros exemplos: aplicativos que leem às empresas. Pessoas com formações diferentes proporcionam
as páginas que vão sendo abertas na tela e transmitem essas visão holística, promovem a criatividade e a inovação. Do ponto
informações por meio de áudio, o aparelho Snail Braille Reader de vista de desempenho profissional, os funcionários deficientes
que converte em áudio mensagens de texto em braille, leitura por devem ser avaliados da mesma maneira que qualquer outro
meio de vibração oferecido pelo Nokia Braille Reader, celulares funcionário. O que é preciso avaliar permanentemente é o
que podem fazer ligação mediante acionamento por movimento, programa de inclusão em si. Devem ser revistas periodicamente
aplicativo móvel que permite reconhecer objetos ao aproximá- as fontes de recrutamento, os métodos de seleção e treinamento
los do aparelho, gravação de voz para efetuar ligações pré- e as ações de sensibilização e integração dos deficientes na
programadas e pulseiras que orientam o deficiente visual por comunidade profissional.
meio de dispositivo GPS e conexão Bluetooth.
A tecnologia pode abrir portas e quebrar barreiras para as
Para o mundo de deficiência auditiva, identificamos que a pessoas com necessidades especiais integrando-as à sociedade
LIBRAS (Língua Brasileira de Sinais) é a linguagem mais usada e tornando-as parte da cadeia produtiva, com a rapidez e a
para a comunicação no Brasil. Assim como as diversas línguas dinâmica que o mercado exige.
existentes, ela é composta por níveis linguísticos como: fonologia,
Para saber mais:
morfologia, sintaxe e semântica. Da mesma forma que nas
http://www.deficienteonline.com.br
línguas oral-auditivas existem palavras, nas línguas de sinais
http://www.oficinadofuturopcd.com.br
também existem itens lexicais, que recebem o nome de sinais.
http://betalabs.nokia.com/apps/nokia-braille-reader
A única diferença é sua modalidade viso-espacial.

Technology Leadership Council Brazil


Agile: você está preparado?
Luiz Esmiralha

No início, era o caos. Essa poderia ser a frase de abertura de


um livro que contasse a história da indústria da Tecnologia da
Informação. Em seus primórdios, o desenvolvimento de sistemas
era uma atividade artesanal, arriscada, não-padronizada e cara.
Uma longa fase de testes e correções ao término do projeto
poderia indicar que a qualidade do sistema final era inferior ao
que se esperaria de um produto confiável.

Por volta da década de setenta, foram criadas diversas


metodologias derivadas diretamente da engenharia, que
descreviam um ciclo de vida de projeto definido por fases
Embora existam diferentes sabores de Agile (Extreme
sequenciais, hoje conhecido como waterfall ou cascata. Esse
Programming, Scrum, FDD, Crystal, Agile UP, entre outros), o
método define que para iniciar uma fase é necessário que a
Manifesto Ágil sintetiza os valores e princípios comuns a todos.
anterior seja finalizada e que cada fase está ligada diretamente
Agile enfatiza que a colaboração com o cliente é um fator crítico de
a um conjunto específico de atividades, assemelhando-se a
sucesso, que o progresso se mede através da entrega de software
uma linha de produção fabril. Embora algumas equipes tenham
funcionando e que é melhor saber se adaptar a mudanças do
obtido sucesso com o uso de metodologias desse tipo, cerca de
que insisitir em seguir um plano.
24% dos projetos de TI ainda são cancelados ou descartados
após a entrega, conforme descrito no Chaos Report (2009), A adoção de um ciclo de vida particionado em iterações fixas
publicado pelo Standish Group. com duração entre uma e quatro semanas, equipes menores e
mais capacitadas, contratos de escopo negociável, envolvimento
A ideia de uma fábrica de software evoca uma imagem de
do cliente durante todo o projeto, desenvolvimento guiado por
previsibilidade e redução de custos e riscos. Porém, o
testes e uso maciço de testes unitários são algumas das técnicas
software possui várias características intrínsecas que tornam
usadas para permitir adaptabilidade de forma disciplinada. 53
o seu desenvolvimento essencialmente diferente da atividade
de produção em série do modelo tradicional de Henry Ford. Equipes ágeis são autogerenciáveis, ou seja, recebem objetivos e
Uma fábrica produz um mesmo tipo de objeto, repetidamente, decidem como melhor atingi-los dentro do contexto da empresa.
reduzindo assim o custo unitário de produção. Desenvolver Diversas técnicas podem ser utilizadas para acompanhar o
software é um esforço intelectual mais próximo do projeto de andamento do projeto, tais como reuniões diárias de quinze minutos
novos produtos, enquanto a maioria das atividades repetitivas no formato stand-up, onde os participantes ficam em pé e reportam
podem ser automatizadas. o status de seu trabalho e eventuais dificuldades que estejam
enfrentando e o uso de quadros kanban e gráficos burn-down
A mutabilidade é outra característica essencial do software.
para comunicar a situação do projeto a todos os participantes.
Ao contrário de prédios, carros e outros objetos do mundo
físico, um sistema de software é relativamente fácil de ser Embora Agile não seja uma panacéia para todos os tipos de
modificado e adaptado a novas situações. Geralmente, os projetos, seus princípios e práticas podem constituir uma
sistemas corporativos têm vida longa, portanto é vital que essa ferramenta poderosa para gerentes de projeto de desenvolvimento,
característica seja bem aproveitada, permitindo ao sistema à medida que não repetem vícios de modelos tradicionais e, ao
acompanhar a evolução do negócio. mesmo tempo, propiciam às equipes técnicas uma metodologia
ágil e eficaz para o desenvolvimento de sistemas.
As metodologias ágeis (Agile) surgiram como resposta à
necessidade de processos disciplinados e confiáveis, porém Para saber mais:
mais alinhadas à natureza peculiar do software. Ao invés dos http://www.agilealliance.org/

planejamentos minuciosos com rigorosos controles de mudanças http://agilemanifesto.org/

das outras metodologias, a Agile encara a mudança como uma http://en.wikipedia.org/wiki/Agile_management

oportunidade.

Technology Leadership Council Brazil


A Teoria das Inteligências Múltiplas e as Profissões em TI
Elton Grottoli de Lima

No início dos anos 80 Howard dos modelos computacionais que recriam virtualmente o mundo
Gardner, eminente professor físico) e a inteligência musical, reconhecida como o talento que
da Universidade de Harvard, se manifesta mais cedo no desenvolvimento humano, através
propôs a ampliação do conceito da capacidade de perceber e manipular tons, timbres, ritmos
tradicional de inteligência ao e temas musicais.
pesquisar aspectos que viriam
Ainda no desenvolvimento de software, temos na linguagem
a redefinir completamente a
escrita a forma mais comum de interação entre sistemas e
percepção acadêmica sobre
seus usuários. Como consequência, arquitetos de sistemas e
a inteligência humana.
de interfaces não podem prescindir da inteligência linguística,
Tradicionalmente, avalia-se a capacidade cognitiva de uma que é a habilidade individual de lidar com a linguagem escrita
pessoa pelos seus aspectos lógicos e matemáticos. Essa é a e falada. E tratando-se de interação, observa-se atualmente o
capacidade refletida nos testes de quociente de inteligência crescimento da popularidade de interfaces operadas por gestos
(QI), uma medida que representa a habilidade em lidar com e movimentos corporais. A criação de software e hardware
padrões, números e formas, características essencialmente adequados a esse novo paradigma exige o entendimento de
matemáticas. Gardner percebeu que essa maneira de medir a habilidades motoras por parte de desenvolvedores e arquitetos,
capacidade cognitiva de um indivíduo era limitada, pois deixava alavancando a manifestação da inteligência corporal-cinestésica,
de lado outros aspectos tão importantes quanto os lógicos caracterizada pelo domínio dos movimentos do corpo e da
e matemáticos. Por exemplo, a oratória, a destreza física e a manipulação de objetos.
habilidade de expressão escrita não são refletidas pela avaliação
Ao lado das ocupações de perfil técnico, há também as profissões
do modelo tradicional. Essas observações levaram Gardner
relacionadas às vendas e aos diversos níveis de relacionamento
a conceber sua Teoria das Inteligências Múltiplas, propondo
com os clientes, cujo sucesso depende em grande parte do
que a capacidade cognitiva de uma pessoa deve ser avaliada
trato com as pessoas e de relacionamentos bem gerenciados.
54 dentro de um espectro de habilidades básicas. Sua pesquisa
Essas são características intrínsecas da inteligência interpessoal,
identificou sete habilidades humanas elementares, cada uma
demonstrada pela capacidade de manter boas relações com
delas manifesta através de um tipo de inteligência: a linguística,
outras pessoas por meio da compreensão de seus humores,
a lógico-matemática, a espacial, a corporal-cinestésica, a musical,
motivações e desejos.
a interpessoal e a intrapessoal.
Por fim, mas não menos importante, há a inteligência intra-
Na área de tecnologia, diversas profissões atestam a aplicabilidade
pessoal, que confere ao indivíduo o bem-estar consigo mesmo,
do espectro de inteligências proposto por Gardner. Notadamente
reconhecendo suas aspirações, ideias e sentimentos. É
a inteligência mais percebida pelo senso comum é a inteligência
demonstrada por uma atitude motivada e autoconfiante. Essa
lógico-matemática, que confere ao indivíduo a capacidade de
característica condiciona o sucesso profissional e é notadamente
raciocínio lógico, de lidar com quantidades, formas e padrões.
expressa nos grandes líderes.
Utilizada por programadores para construir algoritmos, lidar com
abstra-ções e variáveis. Também demonstrada por profissionais Esse grupo de inteligências elementares tem sido trabalhado e
de consultoria em negócios quando reconhecem padrões e expandido desde sua concepção, tanto por Gardner como por
aplicam o pensamento sistêmico visando a solução de problemas outros estudiosos, mas sem perder seu posicionamento como
empresariais. conjunto básico de habilidades humanas. Perceber como as
diferentes inteligências se manifestam nas profissões de TI
Os profissionais especializados em desenvolvimento de software
permite expandir a nossa visão sobre os profissionais da área
para jogos eletrônicos podem demonstrar ainda outras duas
para além de seus estereótipos tradicionais.
habilidades bem características de suas atividades: a inteligência
espacial, relacionada à capacidade de perceber o mundo visual Para saber mais:
com precisão, efetuar modificações e transformações sobre as http://revistaescola.abril.com.br/historia/pratica-pedagogica/cientista-inteligencias-multiplas-423312.
shtml
percepções iniciais e recriar aspectos da experiência visual (essa
http://www.youtube.com/watch?v=l2QtSbP4FRg
inteligência se aplica especialmente no uso de simuladores e

Technology Leadership Council Brazil


Analytics ao alcance dos seus dedos
Paulo Henrique S. Teixeira

Quando se ouve o termo “Business Inteligence”, ou simplesmente • Acesso às informações de negócios, independente da
BI, é comum associarmos a uma infraestrutura que seja capaz de localização, para embasar a tomada de decisões;
processar e gerar relatórios a partir de informações de negócio,
• O uso de telas multitouch, que permite novas formas de
que por sua vez são obtidas de diferentes fontes e consolidadas
interação do usuário final. O uso de toques específicos na
em uma grande base de dados.
tela permite a adição de novas funcionalidades de consulta
O conceito de BI não é recente. Em 1958 o pesquisador Hans a relatórios, com menor necessidade de treinamento aos
Peter Luhn definiu “Business Inteligence System”, em um artigo usuários;
do IBM Journal of Research and Development, como sendo um
• A geração de alertas em tempo real nos dispositivos móveis,
sistema automático para disseminar informação aos vários setores
como um nível de estoque abaixo do limite mínimo, permite
de qualquer organização industrial, científica ou governamental.
ações e decisões mais ágeis, reduzindo paradas em uma
No ambiente altamente competitivo atual, o uso eficiente de linha de produção.
informações coletadas de diversas fontes e armazenadas em
• Facilidades de geolocalização por meio da triangulação
sistemas de BI se transformou em um diferencial ou mesmo
de antenas de telefones celulares, GPS ou redes Wi-Fi. 55
uma questão de sobrevivência para as organizações, evoluindo
Isso permite que um vendedor gere relatórios específicos
para o conceito de Business Analytics.
a partir da sua localização, como por exemplo o perfil de
Para que as decisões de negócios sejam tomadas com maior consumo da população da região em que ele se encontra.
rapidez e precisão as informações precisam estar disponíveis Ou que uma central de atendimento determine qual técnico
a qualquer momento. Além disso, tais decisões não estão de campo está mais próximo de um cliente e com isso
mais restritas ao ambiente físico do escritório. Com a maior agilize o atendimento.
mobilidade da força de trabalho e a flexibilização na jornada,
Já é possível que dispositivos móveis atuem como um canal
elas acontecem também nos clientes, nos aeroportos, na rua
para alimentar o sistema de analytics com novas informações.
ou nas residências.
Por exemplo, um texto ou uma pergunta pode ser gravada,
O surgimento de conexões de rede mais rápidas possibilitou enviada e comparada com outras informações das bases de
aumentar a abrangência do acesso aos ambientes de analytics, dados (text e audio mining).
suprindo parte dessas necessidades. Mas foi o surgimento de
O analytics móvel é ainda recente e segue a tendência de um
smartphones e tablets que abriu as portas da mobilidade aos
mundo em que as pessoas estão permanentemente conectadas.
usuários, dando início ao analytics móvel. O Gartner estima
A sua implementação tem capacidade disruptiva nos processos
que 33% dos acessos a esses sistemas em 2013 serão feitos
das organizações e deve ser muito bem planejada, para que a
por dispositivos móveis.
agilidade e os benefícios de negócio esperado sejam de fato
Executivos, gerentes, força de vendas e mesmo o suporte de alcançados.
campo aos usuários ou clientes são os maiores candidatos a
Para saber mais:
usufruir de benefícios como:
http://www.ibm.com/software/analytics/rte/an/mobile-apps/

http://www.gartner.com/it/page.jsp?id=1513714

Technology Leadership Council Brazil


A importância do processo de RCA
Gustavo Cezar de Medeiros Paiva

Na era digital é primordial para uma empresa evitar possuir diversas causas, que são mapeadas de forma gráfica
indisponibilidades de seus sistemas, que geram quedas de em um diagrama similar a uma espinha de peixe, para que
produtividade, perdas de receitas e prejuízos à reputação então possam ser melhor investigadas.
da companhia. Diante disso, é imprescindível a realização
Ao se trabalhar em um processo de RCA é fundamental que
de investigações dos problemas que afetam os negócios da
os recursos necessários estejam disponíveis. Tais recursos são
empresa. O processo de Root Cause Analysis (RCA ou Análise
chama-dos de documentos de diagnóstico e são compostos
de Causa Raiz) tem como objetivo identificar, corrigir e previnir
por alguns elementos, como por exemplo arquivos gerados
a recorrência desses problemas.
pelos sistemas, que possuem informações relacionadas ao
O processo de RCA, coberto na seção Problem Management seu funcionamento.
(Gerenciamento de Problemas) do ITIL (Information Technology
Com o advento e a propagação da computação em nuvem nas
Infrastructure Library), é considerado reativo e proativo ao mesmo
empresas, o desafio é integrar as ferramentas de monitoração do
tempo. Reativo pois o problema será investigado após sua
ambiente para que a coleta das informações seja realizada com
56 ocorrência, e proativo devido ao resultado da investigação,
sucesso. A ideia é que haja uma correlação desses dados visando
que deverá contemplar uma solução para que o problema não
determinar, nos documentos de diagnóstico, os relacionamentos
ocorra novamente.
entre os desvios de serviços nas aplicações e as falhas na
A investigação do problema requer a participação de diferentes infraestrutura.
times e disciplinas, de acordo com sua categoria e é liderada
Tanto o fornecedor de serviços de computação em nuvem
pelo time de gestão de problemas ou, na sua falta, por uma
quanto os clientes devem fazer um esforço de integração de
equipe que tenha sido designada para tal função. Por meio desse
ferramenta de gestão de incidentes e problemas, de forma que
trabalho colaborativo é gerado um relatório de RCA que possui,
haja transparência nesse processo facilitando assim o trabalho
dentre outras informações, os serviços que foram impactados, a
investigativo.
descrição do problema, a cronologia dos eventos, as evidências,
as ações tomadas para restauração do serviço e principalmente Não importando qual o tipo de infraestrutura, o processo de
o plano de ação para correção definitiva do problema. RCA proporciona uma melhoria na disponibilidade e na gestão
dos serviços de TI, aumentando assim a satistação dos clientes
Existem várias técnicas para aplicação do método de RCA,
e reduzindo os custos operacionais, uma vez que os serviços
sendo que as mais utilizadas são a técnica dos cinco porquês e
estarão submetidos a um profundo e contínuo processo de
a do diagrama de Ishikawa, também conhecido como “espinha
investigação em caso de indisponibilidade.
de peixe”. A primeira consiste em questionar o motivo pelo
qual aquele problema ocorreu até se esgotarem todas as Para saber mais:
possibilidades, enquanto a segunda técnica se fundamenta Livro: ITIL Service Operation - Autor: Gabinete de Governo do Reino Unido - ISBN 9780113313075 - 2011

na ideia de que um efeito, nesse caso um problema, pode

Technology Leadership Council Brazil


Posso ver os dados?
Ana Beatriz Parra

Se alguma vez na vida você já assistiu a uma apresentação


de Hans Rosling, é muito provável que tenha se apaixonado
por visualização de dados. A apresentação animada sobre o
desenvolvimento sócio-econômico feita por Rosling em 2006, no
TED, foi vista por milhares de pessoas e é um exemplo de como
a representação visual dos dados pode revelar informações que
nos permite uma melhor compreensão do mundo.

A visão é um dos nossos sentidos mais apurados. Nosso


sistema visual é muito bom na percepção de posição, extensão,
orientação, formato e tamanho. Pela visão, conseguimos perceber
rapidamente padrões e anomalias, tais como diferenças entre objetivo é comunicar um conceito já entendido anteriormente.
tamanhos, formatos, orientação e posicionamento dos objetos. Nesse caso, a visualização é utilizada para enfatizar aspectos
As representações visuais de dados podem ser classificadas interessantes dos dados e transmitir uma informação já
de diferentes maneiras. A primeira distinção que podemos fazer conhecida pelo autor (informação adquirida provavelmente
é em relação a sua forma de construção, manual ou através de pela exploração prévia). Cada vez mais essas duas categorias
algoritmos. Na primeira categoria, temos os infográficos, que estão se fundindo pelo desenvolvimento de visualizações
são representações de um determinado domínio, desenhadas interativas, nas quais o autor apresenta uma explicação inicial
manualmente e que, em geral, não podem ser replicadas da informação e fornece aos usuários formas de explorar
facilmente para um outro conjunto de dados. Os infográficos os dados, por exemplo, mudando o período analisado, ou
são visualmente atraentes e atualmente muito utilizados em selecionando um subconjunto dos dados.
jornais e revistas para apresentar dados diversos, como o nível A representação visual exige conhecimento de uma série de
de endividamento dos países europeus ou a comparação entre disciplinas, tais como programação para coleta e tratamento dos 57
os diversos tipos de leite disponíveis no mercado. dados, matemática e estatística para exploração e entendimento
Na segunda categoria temos as representações geradas por da informação, design para representação visual e, principalmente,
algoritmos computacionais que podem ser reutilizados para conhecimento do domínio ao qual pertencem os dados em análise.
novos conjuntos de dados. Essa categoria é chamada de Data A visualização de dados é um recurso extremamente rico para
Visualization (DataVis) ou Information Visualization (InfoVis). Uma analisar e representar informações. Mas como tudo na vida
mesma representação visual pode ser utilizada repetidamente tem dois lados, a visualização utilizada de forma incorreta
ao longo do tempo com conjuntos atualizados de dados. pode dificultar o entendimento ou mesmo levar a conclusões
O New York Times é um dos veículos de comunicação que melhor equivocadas. Para representar uma informação é necessário
utilizam a visualização de dados para enriquecer e facilitar o conhecer muito bem os dados, definir a questão que se quer
entendimento das suas matérias, tanto utilizando infográficos responder ou a mensagem que se quer transmitir, identificar o
como InfoVis. perfil dos seus usuários e selecionar as técnicas de representação
adequadas ao seu objetivo.
Outra forma de classificação que podemos utilizar é em relação
ao objetivo da visualização: exploração ou explanação dos Para saber mais:
dados. A exploração é utilizada quando ainda não conhecemos To learn more: http://www.ted.com/talks/lang/en/hans_rosling_shows_the_best_stats_you_
ve_ever_seen.html
os dados e procuramos compreender e identificar informações
http://learning.blogs.nytimes.com/tag/infographics/text
importantes que eles possam fornecer. Na explanação o

Technology Leadership Council Brazil


Aprender Brincando
Sergio Varga

Nada mais interessante do que aprender alguma coisa se podem ser conectados diversos tipos de instrumentos, como
divertindo, não? Jean Piaget (1896-1980), um dos grandes sensores, luzes, motores etc. Para conectá-la a esses dispositivos
pensadores do século XX, descreveu em sua Teoria Cognitiva utilizam-se wiring cables e protoboards sem necessidade de
que o desenvolvimento intelectual ocorre em quatro estágios, solda ou conexão especial. No aspecto de programação existe
sendo que as brincadeiras e os jogos são atividades importantes uma linguagem própria com uma interface amigável, também
para esse desenvolvimento. baseada em código aberto (Open Source). Dessa forma qualquer
pessoa é capaz de fazer um primeiro experimento, como piscar
Existem várias iniciativas e práticas pedagógicas nas quais
um LED, em menos de 5 minutos de trabalho.
os conhecimentos são ensinados por meio de brincadeiras,
principalmente na fase da infân- Além de sua utilização no meio
cia. Ultimamente os jogos de acadêmico, essa placa tem
computador foram introduzidos potencial para ser utilizada em
com a finalidade de ensinar empresas, principalmente em
conceitos e suas aplicações com processos de desenvolvimento nos
o uso de atividades práticas. Além quais a prototipação de circuitos
disso, algumas questões mais impressos é necessária e cara.
complexas, que eventualmente Empresas que fazem pesquisas
requeiram uma forma diferente de também podem se beneficiar
pensamento, foram solucionadas desse tipo de dispositivo para
com jogos de computador. Mais desenvolvimento e testes de novos
recentemente um problema sobre produtos. Ou ainda, dentro do
a AIDS que já estava há três anos conceito de cidades inteligentes,
em pesquisa pelos meios comuns, foi solucionado em apenas representa um auxilio nas camadas de instrumentação e
58 três semanas quando jogado no ambiente foldit. interconexão de sistemas e dispositivos.

Estão surgindo diversas soluções no ensino de eletrônica e da Para aqueles que trabalham somente com software e têm
lógica de programação. Em 2005 um grupo de estudantes do pouco conhecimento em eletrônica, a proposta apresentada
Interaction Design Institute Ivrea (IDII), na Itália, desenvolveu por esse tipo de equipamento permite abrir um mundo novo
uma placa microcontroladora de baixo custo, baseado no de oportunidades e inovações.
projeto Wiring — Open Source, na qual qualquer pessoa pode
Além disso, para os pequenos que ainda estão descobrindo o
desenvolver dispositivos inteligentes com um mínimo de
gosto pela ciência e engenharia, essa placa permite instigar a
conhecimento em eletrônica e em lógica de programação. Essa
curiosidade e desenvolver a criatividade e o raciocínio lógico por
placa e suas similares tornaram-se uma excelente ferramenta
meio de brincadeiras, enquanto educa a criança nos conceitos
de apoio ao aprendizado no mundo acadêmico e aos adeptos
de elétrica, eletrônica, física e computação.
de tecnologia.
Será que esse novo “brinquedo” não seria uma chave para
Mas o que essa simples placa faz? Ela permite, de uma maneira
despertar nas crianças e jovens o fascínio por tecnologia e por
muito fácil, desenvolver os mais variados dispositivos eletrônicos,
tudo aquilo que a cerca?
desde o acionamento de sequência de LEDs até uma automação
residencial completa. Para saber mais:
http://makeprojects.com/Topic/Arduino
Esse tipo de placa é baseado em um microprocessador que
http://fold.it/portal/info/science
monitora entradas e controla saídas digitais e analógicas onde

Technology Leadership Council Brazil


Processamento de áudio em placas gráficas
Diego Augusto Rodrigues Gomes

Desde o surgimento das placas de vídeo, pesquisadores as Function (HRTF). Essas funções, além de aplicáveis no campo
utilizam para resolver problemas não relacionados ao contexto do entretenimento, também são úteis no auxílio a deficientes
gráfico. Isso se dá pelo fato da unidade de processamento gráfico auditivos. Existem alguns estudos que utilizam HRTFs para
(GPU na sigla em Inglês) se mostrar extremamente eficiente simular o posicionamento de uma fonte sonora e transmitir esse
em aplicações que demandam elevado poder computacional. sinal ao aparelho auditivo de pessoas com deficiência.
Quando fabricantes de placas de vídeo disponibilizaram interfaces
Alguns centros de pesquisa tais como MIT e o Ircam possuem
de programação voltadas para aplicações de propósito geral
bancos de HRTFs para representar algumas posições ao
e não apenas de natureza gráfica, o uso desses dispositivos
redor do ouvinte. A determinação dessas funções demanda
para a solução de problemas computacionalmente intensos
uma quantidade considerável de recursos e por esse motivo
se popularizou.
não são feitas para todas as posições ao redor de um ponto
Daí surgiram aplicações para solução eficiente de problemas central de referência. Para obter os valores das funções
da área de bioinformática, simulações físicas e financeiras, de pontos não conhecidos, utilizam-se mecanismos de
que antes seriam executadas em interpolação capazes de calculá-los
tempo muito maior se utilizassem a partir daquelas já existentes.
apenas CPUs convencionais. Nesse
O ganho em desempenho para
contexto, programas de áudio que
aplicações de áudio 3D utilizando
necessitam realizar muitas operações,
GPU é interessante, pois permite
como aplicação de efeitos, simulação
a construção de aplicações mais
e síntese de áudio tridimensional ou
interativas e que possibilitam a simu-
que precisam apresentar tempos
lação e a resposta mais eficiente às
de resposta mais curtos, podem se
mudanças de posicionamento. Essa
beneficiar do uso desse hardware
tecnologia, além de ser utilizada para
gráfico para o processamento mais 59
transmitir estímulos que provoquem
eficiente de informações.
novas sensações aos espectadores
O conceito de áudio 3D está rela- no campo do entretenimento tais como
cionado à capacidade de simular o cinema, música e jogos, pode ser
posicionamento de uma fonte sonora em um espaço tridimensional utilizada em simulação acústica de salas e provavelmente em
virtual ao redor de um ouvinte. Isso acontece com o auxílio outros campos ainda não explorados. Além disso, mostra-se
de um processo chamado síntese binaural, em que os canais mais vantajosa que os sistemas surround atualmente presentes
esquerdo e direito de um sinal de áudio são filtrados por funções em salas de cinema e em sistemas de home theater, já que em
matemáticas que permitem simular tal posicionamento. Assim, vez de cinco ou mais canais de áudio armazenados em algum
da mesma forma que se precisa de óculos para experimentar tipo de mídia, tem-se apenas dois.
a visualização em três dimensões, é preciso utilizar fones de
O processamento de áudio com uso de GPUs contribuirá
ouvido para experimentar a audição tridimensional com maior
significativamente para o avanço dos sistemas em 3D,
fidelidade ao posicionamento do som.
possibilitando a construção de ambientes virtuais cada vez
Percebemos o posicionamento espacial de uma fonte sonora mais realistas além de permitir o desenvolvimento de dispositi-
porque as ondas percorrem distâncias distintas e encontram os vos que tragam benefícios à vida humana.
ouvidos direito e esquerdo em instantes diferentes. O cérebro,
Para saber mais:
ao receber essas duas informações, nos permite identificar de
NVIDIA CUDA C Programming Guide, version 4.0
onde vem o sinal sonoro. Em termos matemáticos, as funções
http://sound.media.mit.edu/resources/KEMAR.html
que definem como uma onda sonora atinge a entrada do canal
http://www.ircam.fr/
auditivo após a reflexão na cabeça, tronco e ouvido externo de um
http://www.princeton.edu/3D3A/
ouvinte são chamadas de funções de transferência relacionadas
Hearing Aid System with 3D Sound Localization, IEEE
à cabeça, termo originário do inglês, Head-Related Transfer

Technology Leadership Council Brazil


Unicode ♥ ‫ ☻ דוקינו‬Уникод ♫ ‫دوكينوي‬
Avi Alkalay

Você sabia que há pouco tempo era impossível misturar diversas No título do artigo há a palavra “Unicode” em ambos os sentidos
línguas numa mesma frase de texto sem a ajuda de um editor na mesma frase, na escrita latina (→), hebraica (←), russa (→) e
multilíngue especial? Mais ainda, que havia idiomas cujas letras árabe (←) respectivamente e isso serve de exemplo para mostrar
sequer tinham uma representação digital sendo impossível usá-las que a questão de múltiplos sentidos de escrita na mesma frase
em computadores? Tudo isso virou passado com o advento do é contemplada e resolvida pelo Unicode.
Unicode e para entendê-lo vamos relembrar alguns conceitos:
O Unicode introduziu também desafios de desempenho pois há
Caractere: É a representação digital do que chamamos de letra muito mais caracteres maiúsculos e minúsculos para comparar e
ou grafema ou ideograma. Alguns exemplos de caracteres: J mais bytes para armazenar e processar. Mas tudo isso é marginal
(jota maiúsculo), ç (cê-cedilha minúsculo), Φ ζ λ Ψ Ω π (caracteres com a evolução do poder computacional, universalidade e
eternidade da informação que o Unicode oferece.
gregos), ‫( וניקוד‬a palavra “Unicode” em hebraico), símbolos
matemáticos como × ÷ ∞ ∂ ∑ ∫, ou financeiros como $ ¢ £ ¥ ₪ Ainda no título, outra coisa que chama a atenção são símbolos
€, hieróglifos egípcios e muitos outros como ♪♠☼☺, ideogramas que fazem
que mostraremos neste texto; parte de uma faixa de caracteres do
Unicode chamada Emoji, incorporado
Glifo: Uma representação gráfica para
ao padrão em 2010. Mas por enquanto,
um certo caractere. As fontes Times New
podemos utilizar somente alguns Emojis
Roman e Arial usam glifos diferentes
em forma de texto porque estão em
para representar o mesmo caractere “g”;
fase de implementação nos sistemas
Encoding: É uma dica que damos ao operacionais. Por outro lado, eles já são
computador para que ele saiba qual bastante populares nos sistemas iOS
caractere ou letra humana ele deve (iPhone, iPad), Mac OS X Lion e Linux.
usar para mostrar certo código binário. Somente a versão 8 do Windows terá
60
Por exemplo, o código 224 no encoding suporte completo a Emoji.
ISO-8859-1 é o caractere “à”, porém no ISO-8859-8 é a letra “‫”א‬.
Emoji é também um marco de evolução da linguagem escrita.
Repare que no universo desses antigos encodings as letras “à” e
Em tempos de uso intenso de redes sociais e SMSs, é muito
“‫ ”א‬não podem coexistir porque usam o mesmo código binário. E é
mais divertido e expressivo escrever “eu ♥ você”, “estou com
justamente esse o problema que foi levantado no começo do texto.
fome², vamos”, “adorei ”, “hoje estou zen” etc. E que
Antes do Unicode era necessário somente 1 byte de computador tal mais esses para seu próximo tweet?: ♐ ☠ ☢ ☭ ☣ ✡ † ➡ ☮
para armazenar a informação de 1 caractere. Os encodings são ☎ ♚ ♛ ✿. Todos são caracteres tão comuns quanto “ú” ou “H”
necessários mas, como vimos, havia limitações indesejáveis. Como e graças ao Unicode, não é necessário nenhum recurso de
o Unicode propõe uma gama muito maior de códigos binários, processador de texto para usá-los.
único e imutável por ideograma, caracteres de idiomas diferentes
O Unicode já está em pleno uso na Internet. É comum encontrarmos
podem agora coexistir no mesmo texto. Neste exemplo “à” e “‫”א‬
páginas que misturam línguas ou usam caracteres avançados.
têm códigos Unicode que não conflitam entre si: 0x00ED e 0x05D0.
Um relatório periódico do Google mostra que entre 2008 e 2012
A história do Unicode começa em 1987 na Xerox e Apple, e o uso de Unicode em sites subiu de 35% para mais de 60%. Não
tenta incorporar todos os ideogramas e letras do mundo, um poderia ser menos, pois Unicode é uma tecnologia absolutamente
conjunto bem maior do que 255 caracteres (que é o que cabe essencial para um mundo globalizado e multicultural.
em 1 byte). Um caractere Unicode pode ter de 1 a 4 bytes.
Ao longo deste texto mostrei alguns caracteres, letras e
Evoluir para múltiplos bytes por caractere tem certas implicações ideogramas curiosos. Para fechar, deixo-os com uma última ideia:
pois os softwares não estavam preparados para isso. Contar .meugnin a lam zaf oan edocinu ed ocuop mu
caracteres numa frase é agora diferente de contar o número
Para saber mais:
de bytes ocupados por essa frase. Mostrar ou imprimir tal frase
http://www.DecodeUnicode.org/
é também agora uma tarefa de outra ordem: há línguas onde
http://en.wikipedia.org/wiki/Emoji
se escreve da direita para esquerda, como árabe ou hebraico,
http://googleblog.blogspot.com.br/2012/02/unicode-over-60-percent-of-web.html
versus as da esquerda para direita, baseadas no sistema latino.

Technology Leadership Council Brazil


A verdade é um caminho contínuo
Paulo Maia

Todos nós já vivenciamos situações patrocinador executivo para apoiar as atividades que normalmente
nas quais percebemos que as em- envolvem várias áreas de negócio e a avaliação do estágio atual
presas fornecedoras de produtos e da maturidade em relação à governança de dados e do nível
serviços não conhecem bem os seus que se pretende alcançar em um determinado prazo.
clientes, pois apesar de possuírem
Dessa forma, os resultados podem ser medidos e o respaldo
um significativo volume de dados
das áreas de negócio mantido. O programa deve se tornar um
sobre eles, não conseguem usá-los de maneira efetiva. No caso
processo contínuo, no qual se estabelece um escopo inicial
das empresas que passaram por fusões e aquisições, prática
alinhado com alguma estratégia de negócio da empresa, como por
comum no mercado atual, o problema é ainda maior. Além
exemplo aumento da receita, gerado pelo melhor conhecimento
disso, um a cada três gestores toma decisões baseadas em
dos clientes; redução de custos, ao se diminuir despesas com
informações que eles não confiam ou não possuem, segundo
armazenagem de dados ou mitigação de riscos a partir de uma
estimativa do estudo Break Away with Business Analytics and
gestão mais eficiente do risco de crédito.
Optimization da IBM de 2010. Problemas como esses não
aconteceriam se as empresas tratassem suas informações As disciplinas principais que suportam o programa são qualidade
como verdadeiros ativos, cuidadosamente geridos e com alto de dados, segurança, gestão de dados mestres (Master Data
controle sobre sua qualidade. Management), governança analítica e ciclo de vida da informação.

Por outro lado, o desafio só aumenta. A quantidade de dados Alguns dos benefícios alcançados por organizações que
existentes no mundo está crescendo em taxas alucinantes e implementam governança de dados são a melhoria da confiança
cerca de 90% do volume total foi gerado apenas nos últimos dos usuários em relação aos relatórios e a consistência de
dois anos. Essa é a era do que está sendo chamado de big seus resultados quando comparados com outros que tenham
data, que possui quatro desafios principais, representadas origem de diversas fontes de informação e também o aumento
pelos quatro “Vs”: do conhecimento sobre o cliente que possibilita campanhas de
marketing mais efetivas. 61
• Volume de dados. Em 2011, foi cerca de 1.8 zettabytes
(ZB, o que equivale 1021 bytes). Em 2020 a previsão é de É importante ressaltar que a causa principal de falhas na
que seja 35 ZB. O Google processa mais de 24 petabytes implementação de um programa de governança é a falta de
(PB, 1015) por dia, o Twitter cerca de 7 PB e o Facebook alinhamento entre os objetivos de negócio e programas da área
mais de 10 PB. de TI, a qual não deve ser responsável pela governança de
dados, mas sim a protetora ou a zeladora dos mesmos.
• Velocidade na criação e integração dos dados, com
processos de negócio demandando informação praticamente Durante séculos, filósofos como Nietzsche têm buscado uma
em tempo real. resposta para o signficado da verdade, mas ela se mantém
evasiva. Em termos práticos, a verdade poderia ser definida
• Variedade dos dados, pois 80% das informações existentes
como a informação com a mais alta qualidade, disponibilidade,
estão em um formato não estruturado, como correio eletrônico,
relevância, completeza, precisão e consistência. As empresas
vídeos, fotos, documentos, redes sociais e dados advindos
que forem capazes de implementar programas de governança
de sensores eletrônicos.
de dados, considerando a velocidade, variedade, volume e a
• Veracidade, uma vez que é necessário identifcar quais veracidade das informações que são geradas, terão enorme
informações são confiáveis em meio à grande quantidade vantagem em um mercado cada vez mais competitivo e inteligente.
originada em alta velocidade por diversas fontes.
Para saber mais:
Em virtude desse cenário surge o conceito de governança http://www.dama.org
de dados, disciplina que envolve a orquestração de pessoas, http://www.eiminstitute.org
processos e tecnologias, visando estabelecer controle sobre http://www-01.ibm.com/software/data/sw-library/
esses ativos. Para a implementação bem sucedida dessa
disciplina, vários fatores são importantes: a escolha de um

Technology Leadership Council Brazil


Tudo (que importa) a seu tempo
Renato Barbieri

O tempo voa. “Já passamos do executá-las em diferentes situações do nosso dia-a-dia,


meio do ano?” “Parece que foi aproveitando melhor o tempo. O ciclo é então fechado com
ontem!” “Nem vi passar...” Os revisões semanais e mensais, permitindo que as tarefas sejam
filósofos poderiam continuar avaliadas periodicamente e suas prioridades ajustadas de
debatendo a natureza do tem- acordo com sua importância e urgência.
po, mas em nosso cotidiano
Mas a utilização desse método requer mudanças de hábitos.
precisamos de soluções práticas
Uma ótima referência, que complementa muito bem esses
para exercitar a única opção que
conceitos, é o livro “Os Sete Hábitos de Pessoas Altamente
nos sobra: utilizá-lo da maneira
Eficazes”, de Stephen R. Covey. Existe até uma implementação do
mais racional e eficiente possível.
GTD, chamada Zen-To-Done (ZTD), que incorpora os conceitos
Os métodos, técnicas e ferra- descritos nesse livro do Covey.
mentas de gerenciamento do
Outra técnica para gerenciamento de tempo, que é ao mesmo
tempo têm por objetivo nos ajudar
tempo simples e muito interessante, é chamada de “The Pomodoro
na identificação das nossas tarefas, sua organização, priorização
Technique”. Essa técnica, amplamente divulgada na Internet
e ainda evitar o adiamento de sua execução.
e que conta com muitos adeptos na comunidade Agile, usa o
Publicado no Brasil em 2005 sob o título “A Arte de Fazer conceito de timebox para dividir tarefas em blocos de esforço
Acontecer”, o livro de David Allen iniciou o movimento Getting de 25 minutos seguidos de períodos de descanso de 5 minutos.
Things Done ou GTD, como é mais conhecido. A cada 4 pomodoros é aconselhável fazer um descanso mais
longo, de 15 a 20 minutos.
O método GTD se baseia em conceitos muito simples e parte
do princípio de que tudo que precisamos, ou muitas vezes Esta técnica é ótima para exercitar o foco nas tarefas e utiliza
desejamos fazer, ocupa espaço valioso em nossos cérebros e apenas duas listas: uma para controlar as atividades diárias e
62 acaba por desperdiçar tempo e energia quando nos preocupamos outra para guardar as atividades pendentes. A técnica recomenda
continuamente com o que precisa ser feito mas não o fazemos. ainda que as frequentes interrupções que sofremos sejam
Essas fontes de preocupação são chamadas de “stuff” (coisas), registradas, para assim termos melhor ideia do quanto nossa
que primeiro precisam sair do nosso cérebro para serem produtividade é afetada.
armazenadas em algum tipo de repositório, como uma lista
As técnicas acima são complementares e oferecem os recursos
numa folha de papel, agenda ou mesmo um software escrito
necessários para que cada um encontre o seu próprio estilo ou
para GTD. O que importa é tirar da cabeça e capturá-lo em um
sua própria solução. Imagine como seria interessante aplicar
meio de armazenamento para uso futuro.
uma ou mais das técnicas acima no seu dia a dia e chegar ao
O próximo passo é o processamento de toda essa informação, ou ponto de dizer a si mesmo: “Nossa! Consegui fazer tudo o que
seja, decidir se a tarefa será executada imediatamente (se leva era prioritário para hoje. E agora, tenho tempo sobrando. O que
menos de dois minutos, faça agora!), se merece ser detalhada posso fazer para aproveitar esse tempo?” O objetivo final é usar
e estruturada como projeto, se será delegada para alguém, se o tempo de maneira racional e inteligente para fazermos tudo
queremos deixá-la para um futuro ainda distante, se deve ser que importa no seu tempo.
armazenada como referência ou simplesmente jogada no lixo.
Para saber mais:
Com as tarefas processadas e organizadas, é possível iniciar
http://www.davidco.com/about-gtd
o trabalho necessário em cada uma delas.
http://zenhabits.net
O GTD também nos aconselha a organizar as tarefas por http://www.pomodorotechnique.com
contexto (em casa, no trabalho, na rua) assim poderemos

Technology Leadership Council Brazil


Computação em Nuvem e Sistemas Embarcados
Nilton Tetsuo Ideriha

Computação em nuvem é um modelo de negócios onde recursos Há também o maquinário de chão de fábrica, que gera uma
computacionais escaláveis e elásticos são fornecidos como um grande quantidade de dados originados de sensores e sistemas
serviço aos clientes de forma self-service e on-demand por meio de controle que podem ser enviados para uma infraestrutura
da Internet. em nuvem, analisados por técnicas de Big Data, utilizadas
em aplicações de gerenciamento, monitoração e Data Mining
Originalmente nesse novo modelo, pensamos na utilização
visando, entre outras coisas, a predição de falhas e manutenção.
desse tipo de serviço para abstrair os recursos computacionais,
como um servidor localizado no datacenter remoto ou então para Outro exemplo de aplicabilidade são os serviços na área médica
substituir alguma aplicação instalada em desktops de usuários. que fazem coleta de dados das Unidades de Tratamento Intensivo
(UTI) e as enviam para um serviço em nuvem. Esse por sua vez
Existem no entanto, outros tipos de sistemas que podem
calcula os valores de risco que podem ser comparados com
usufruir dos recursos providos em nuvem, como os sistemas
padrões externos para medir o desempenho das UTIs a fim
computacionais embarcados, que são um conjunto de hardware
de orientar a melhoria em áreas de desempenho insatisfatório.
e software com o propósito de desempenhar funções específicas
dedicadas ao dispositivo ou sistema que controlam. Estão Existem no mercado Starter Kits, que são um conjunto de 63
presentes, por exemplo, em automóveis, equipamentos médicos, hardware e software destinados a projetos de computação
aeronaves e eletrodomésticos, e podem utilizar serviços em em nuvem, onde os recursos são acessados através de APIs
nuvem para ampliar os seus recursos, aumentando assim a (Application Programming Interface) específicas diretamente
gama de serviços disponíveis aos seus usuários. do software cliente embarcado. Esses Kits oferecem serviços
de computação em nuvem para armazenamento de dados,
Cada vez mais os sistemas embarcados estão conectados às
atualização de firmware, acesso remoto com base em Virtual
redes corporativas e à Internet, vencendo uma barreira importante,
Private Networks (VPNs) e configuração remota.
pois, tradicionalmente, a sua interconexão vinha sendo isolada
de outras redes. Esse novo acesso possibilita a expansão de Essa nova abordagem pode ampliar a capacidade de
serviços ofertados por esses sistemas. armazenamento e processamento dos sistemas embarcados,
que antes eram isolados e dedicados, representando um novo
Alguns modelos de automóveis, por exemplo, já possuem
campo a ser explorado onde novos negócios são promissores
instalados centrais que possibilitam o controle integrado do
com maior produtividade, integração e funcionalidade.
sistema de som, navegação por GPS, conectividade com celulares
e outros equipamentos eletrônicos. Carros com acesso à Internet Para saber mais:
poderão acessar rotas de GPS, músicas, fotos e arquivos de um http://pt.wikipedia.org/wiki/Sistema_embarcado
repositório central provido por um serviço de armazenamento http://www.eetimes.com/design/embedded/4219526/ The-embedded-cloud--IT-at-the-
edge?Ecosystem=embedded
em nuvem, tornando possível ao usuário ouvir suas músicas
preferidas e acessar as suas rotas em qualquer veículo equipado
para acessar tal serviço.

Technology Leadership Council Brazil


Nanotecnologia – Como isso muda nossas Vidas?
Amauri Vidal Gonçalves

A Wikipedia define a Nanotecnologia como o estudo da Na Medicina, nanomotores serão em um futuro próximo, a
manipulação da matéria em uma escala atômica e molecular, base para a construção de nanorrobôs (nanobots), que ao
ou seja, estruturas que variam de 1 a 100 nanômetros (10-9 serem introduzidos no corpo humano poderão localizar células
m). Para termos uma ideia mais objetiva das dimensões que cancerígenas residuais após cirurgias, permitindo tratamento
estamos falando, seria como comparar o tamanho de uma bola localizado mais efetivo. Poderão ainda monitorar a saúde através
de futebol com o da Lua. de nanocâmeras, transmitir informações para equipamentos
através dos quais os médicos farão diagnósticos e definirão o
A nanotecnologia objetiva o desenvolvimento de produtos
melhor tipo de tratamento para as doenças ou levar medicamentos
em diversas áreas, tais como Medicina, Biologia, Química,
diretamente ao alvo, evitando efeitos colaterais indesejáveis.
Física, entre outras, manipulando-se átomos para construir
estruturas estáveis. Para isso utiliza-se de instrumentos de alta A nanotecnologia será adotada na manufatura de tecidos, roupas
especialização como, por exemplo, o Microscópio Eletrônico e sapatos, especialmente tratados para serem capazes de
de Varredura ou MEV. repelir líquidos, evitar manchas e secar mais rápido. Existirão
também fraldas de papel mais resistentes e de maior duração e a
O conceito de nanotecnologia foi abordado pela primeira vez
possibilidade da confecção de camisetas mais leves, resistentes
em dezembro de 1959 quando Richard Feynman (1918-1988),
e até à prova de balas.
um conceituado físico, comentou sobre a possibilidade de
manipulação de moléculas e átomos, vislumbrando a produção de Na Tecnologia da Informação e Comunicação, além da produção
componentes invisíveis a olho nu. A partir de 2000, ela começou de displays muito finos e maleáveis, será possível também a
a ser desenvolvida em laboratórios em projetos que permitiram construção de baterias biodegradáveis e limpas a partir de
sua aplicação em várias áreas. organismos vivos (como os vírus), alguns carregados positivamente
e outros negativamente, separados por material isolante.
Essa tecnologia já está presente em nossa vida atual e trará
enorme impacto em um futuro próximo. Vejamos alguns exemplos: Na indústria automotiva, baterias com base em lítio poderão
64 ser utilizadas com sucesso alavancando a produção de carros
Hoje em dia a nanotecnologia já é usada na fabricação de
híbridos com vantagens financeiras e ambientais.
artigos esportivos como tênis, tornando-os mais leves e ao
mesmo tempo mais resistentes. É usada ainda em tintas para Sensores ambientais robustos e portáteis serão capazes de
automóveis, deixando sua pintura mais resistente ao desgaste do realizar análises químicas e tomar decisões. A geração de
dia a dia. Empresas como HP, IBM, Toshiba e outras fabricantes energia elétrica será realizada de forma absolutamente limpa,
de storage e semicondutores também já utilizam a nanotecnologia através do uso de nanotubos de carbono, contribuindo para
em seus processos de fabricação. um planeta mais sustentável.

Esses são apenas alguns exemplos do uso da nonotecnologia


no futuro próximo. Inúmeras outras áreas como alimentação,
defesa, microeletrônica, cosméticos e controle de tráfego, serão
afetadas pelo seu uso.

Convido-os a assistir os vídeos selecionados abaixo que ilustram


algumas dessas ideias inovadoras apresentadas acima e que
irão transformar de forma radical o mundo em que vivemos.

Para saber mais:


http://www.youtube.com/watch?v=KizHjy4U2vs

http://www.youtube.com/watch?v=7hZ5hinf9vo

http://www.youtube.com/watch?v=YqGkC5uJ0yM

Technology Leadership Council Brazil


TI com Sustentabilidade e Eficiência
Evandro Evanildo da Silva

A mesma tecnologia que tanto traz conforto É possível que um dos caminhos esteja nos benefícios da
para as nossas vidas, muitas vezes pode computação em nuvem, que pode contribuir muito para
gerar transtornos e prejuízos ao planeta. Já reduzir a capacidade ociosa, melhorando o uso e tornando
se pode notar que o meio ambiente vem a TI mais sustentável.
sofrendo com as mais diversas formas
A hospedagem de sistemas em infraestrutura compartilhada
de agressão que afetam diretamente os
é capaz de atender a milhões de usuários em milhares de
recursos naturais.
empresas simultaneamente, reduzindo assim o consumo de
O lixo eletrônico (e-lixo), composto por monitores, gabinetes energia elétrica e a quantidade de lixo eletrônico, com melhor
ou outros componentes, é muita vezes descartado de forma aproveitamento dos equipamentos já existentes.
incorreta se acumulando na natureza e até mesmo nas ruas
É importante ressaltar que os servidores que rodam em altas taxas
dos grandes centros urbanos. Já faz parte de nosso cotidiano
de utilização consomem mais energia, mas isso é compensado
encontrar restos eletrônicos em praças e ruas. Somam-
pela economia obtida através da melhor utilização e distribuição
se ainda outros fatores que trazem prejuízos ambientais
na carga de processamento e de memória.
causados pelos metais pesados que compõem as baterias
e componentes eletrônicos. Muitas empresas estão adotando a virtualização como forma
de economia e investindo em Cloud Computing para consolidar
Estima-se que o mundo deverá produzir cerca de 50 milhões de
seus custos em hardware e energia, e também melhorando as
toneladas de lixo por ano, que hoje é descartado em diversas
estruturas dos data centers, que agora estão ganhando uma
partes do planeta, normalmente muito longe de onde foi produzido
nova versão chamada “Green”.
originalmente. Muitas vezes isso ocorre de forma clandestina
em países menos desenvolvidos. O “Green Data Center” busca utilizar fontes alternativas de energia
limpa, como é o caso das energias eólica, solar e oceânica. Essa
Um computador, por exemplo, tem cerca de 18% de chumbo,
última tem a capacidade de gerar energia elétrica através da
cádmio, berílio e mercúrio, sendo o chumbo um dos metais mais 65
energia cinética das ondas e ainda refrigerar por meio da troca
perigosos. Todos esses materiais tóxicos, descartados de forma
de calor. Essa alternativa tem sido aplicada em data centers
irregular, representam hoje um grande problema ambiental.
flutuantes, que por serem itinerantes mitigam a restrição de
As substâncias perigosas contidas no e-lixo podem contaminar, espaço fisíco em áreas urbanas, hoje um grande problema
além dos aterros sanitários, o solo, os lençóis freáticos e outros para o crescimento ou construção de data centers.
recursos naturais afetando direta e indiretamente todas as formas
Novas pesquisas estão ajudando no desenvolvimento da
de vida. A tecnologia avança de forma rápida sem se preocupar
tecnologia e preservação de recursos, explorando formas
com os artefatos que se tornam obsoletos.
sustentáveis para que o avanço tecnológico não afete o futuro
Além da preocupação com descarte do lixo, temos que avaliar do meio ambiente.
formas de melhoria no ciclo de vida dos produtos, a começar
Para saber mais:
pelo uso de materiais mais sustentáveis e menos poluentes na
http://convergenciadigital.uol.com.br/cgi/cgilua.exe/sys/start.htm?infoid=25420&sid=97
fabricação de novos dispositivos.
http://www.cpqd.com.br/highlights/265-sustentabilidade-e-eficiencia-em-ti.html
A exploração de fontes de energia renováveis, o melhor ht tp:// info.abril.com.br/corporate/noticias/google -obtem-patente - de - dat acenter-
flutuante-04052009-0.shtml
aproveitamento dos equipamentos, o descarte responsável,
as melhorias no gerenciamento e consumo de energia e a
reciclagem de dispositivos eletrônicos, se enquadram no que
devemos ver como “o futuro na era da TI Verde”.

Technology Leadership Council Brazil


A estratégia e sua operacionalização
Luciano Schiavo

Que empresário não gostaria de ter maior lucratividade e foco no O próximo passo, depois de criar os objetivos para cada
cliente, reduzir custos, ter processos mais enxutos e funcionários perspectiva, é criar os KPIs (key performance indicators ou
com o perfil profissional ideal? Não existe só um caminho para indicadores chaves de desempenho) que permitirão acompanhar
atingir esses objetivos, mas é possível trabalhar com algumas a evolução da implementação da estratégia. Geralmente nesse
teorias e metodologias que facilitam e simplificam essa tarefa. ponto, o contraste com os KPIs atuais da empresa mostra que
alguns esforços não estavam alinhados com a estratégia da
Michael Porter escreveu em seu artigo “What is Strategy” (Harvard
empresa. Nessa fase é comum iniciar projetos com o objetivo
Business Review, pg 61-78, Nov/Dec, 1996) que a estratégia
de criar e coletar algumas informações para os novos KPIs.
é a criação de uma única e valorável posição envolvendo um
diferente conjunto de atividades. Essa posição também está Em 2010 surgiu uma pesquisa (Harvard Business Review,
relacionada à decisão do tipo de atividades que não se deve fazer. Spotlight on Effective Organization: How Hierarchy Can
Hurt Strategy Execution, Jul/Aug, 2010)
Ainda nesse contexto, cabe a decisão
que apresentou e categorizou os
sobre a terceirização de serviços como
maiores obstáculos para a execução
por exemplo, TI, permitindo dessa forma
da estratégia. Os maiores ofensores
maior foco nas atividades diretamente
eram falta de tempo e restrições de
ligadas ao negócio. Para Michael Porter,
recursos. Quando considerada a estrutura
a redução de custos por si só não é uma
organizacional, a maior dificuldade estava
estratégia e sim uma autocanibalização,
na tradução da estratégia em execução, o
porque compromete as margens de lucro
alinhamento dos cargos e fazer com que
durante um longo período de tempo.
essa estratégia seja significativa para a
Após a definição da estratégia, ela deve linha de frente. Outros estudos também
ser operacionalizada e uma das maneiras de se fazer isto é identificaram problemas na condução do BSC devido aos vieses
66 por meio da metodologia Balanced Scorecard (BSC), criada de julgamentos ao se avaliar o desempenho dos indicadores.
por Kaplan e Norton. Eles identificaram quatro perspectivas A grande oportunidade e ao mesmo tempo desafio é formular
que geram muito valor quando utilizadas em conjunto. qual será a estratégia e o que realmente deve ser medido.
A perspectiva financeira estrutura qual será o sucesso baseado
A vantagem de seguir essa abordagem de estratégia mais
no retorno financeiro. A perspectiva do cliente estabelece
indicadores é que os executivos podem ver de forma clara o
como a organização deseja ser vista pelos clientes e remete
que realmente é essencial para então priorizar corretamente os
a perspectiva de processos internos que identifica como os
projetos. Finalmente, essa abordagem também ajuda a empresa
mesmos devem ser adaptados para entregar o produto ou
a perseguir um único objetivo, alinhar as tarefas, as prioridades,
serviço ao cliente. A perspectiva de aprendizado e crescimento
a comunicação e evitar as “armadilhas” do micro gerenciamento.
permite analisar se a empresa possui todo conhecimento e
habilidades necessários para entregar o que foi definido na Para saber mais:
estratégia. http://www.isc.hbs.edu/

http://www.balancedscorecard.org

http://www.lean.org/WhatsLean/History.cfm

Technology Leadership Council Brazil


A evolução do NAS
Hélvio de Castro Machado Homem

O assunto Big Data, cada vez mais presente nas agendas permite que diferentes requisitos sejam atendidos com menores
executivas, e o enorme crescimento de dados gerados a custos de aquisição e manutenção.
cada dia fazem as empresas e os provedores de serviços de
Outra tecnologia que tem avançado de forma considerável é
TI, inclusive de Cloud Computing, repensar suas estratégias
o Scale-Out NAS, uma evolução do NAS tradicional, que tem
de armazenamento de dados. As tecnologias para esse fim
um cluster composto por no máximo dois nós. O Scale-Out
vêm evoluindo de forma significativa, permitindo assim uma
NAS é muito mais escalável e permite a utilização de diversos
distribuição mais inteligente dos dados e com menor custo.
nós espalhados geograficamente, mas que aparecem com
Um bom exemplo disso é a tecnologia NAS (Network Attached um único dispositivo ou ponto de acesso para o usuário final.
Storage), que surgiu no início da década de 90 exclusivamente Isso se torna especialmente importante para serviços de
para desempenhar o papel de servidor de arquivos e que vem, armazenamento de arquivos, como os fornecidos através de
desde então, ganhando novas melhorias e funcionalidades. Cloud Computing. Neles, o usuário, ao gravar seus dados
na nuvem, não tem a menor ideia de onde eles estão sendo
O NAS utiliza a topologia de redes do padrão Ethernet. Operando
armazenados fisicamente. O importante é que eles possam
com os tradicionais cabos metálicos de par trançado, que tem 67
ser acessados de forma simples e rápida.
menor custo de implementação, já atende de forma bastante
satisfatória a requisitos de performance. Pode-se ainda adotar E é exatamente a utilização em Cloud Computing, além do Big
o padrão de redes que opera em velocidade de 10 Gbps em Data, mídias sociais e mobilidade, os principais motivos pelos
ambientes que demandam maior desempenho. quais o IDC estima que a receita do mercado da tecnologia
Scale-Out NAS deverá mais que dobrar até 2015 (de 600 milhões
Além dos tradicionais protocolos com base em arquivos, a partir
para 1,3 bilhão de dólares).
de 2001 alguns equipamentos que fornecem a tecnologia NAS
passaram a permitir também a utilização de protocolos com base Ainda de acordo com o IDC, o mercado de storage com base
em blocos, característicos da SAN (Storage Area Network), mas em arquivos de forma geral cresceu significativamente nos
utilizando também o padrão de redes Ethernet. Os primeiros últimos anos e essa tendência deve permanecer ao menos até
permitem o acesso direto à estrutura de arquivos e diretórios, 2015. Para se ter uma ideia, em 2011, esse mercado representou
enquanto que aqueles com base em blocos “entregam” os cerca de 72% da capacidade de storage comercializada no
dados em um formato encapsulado para o cliente do sistema mundo e até 2015 deve chegar aos 80%.
de storage (por exemplo, um servidor de banco de dados) com
A combinação de diferentes tecnologias de storage permite
maior desempenho.
compor um ambiente híbrido, com camadas diferenciadas por
Existem opções de equipamentos que fornecem as tecnologias performance e protocolo. Essa é a melhor forma de atender a
NAS e SAN de forma integrada, essa última através de requisitos técnicos e de negócio e ainda otimizar os custos de
Ethernet e Fibra Ótica. Esses equipamentos são normalmente armazenamento de dados.
chamados de unificados ou multiprotocolos. Principalmente
Para saber mais:
em cenários em que não se pode abrir mão da velocidade
http://www-03.ibm.com/systems/storage/network/
oferecida somente pela tecnologia de fibra ótica, isso se torna
http://en.wikipedia.org/wiki/Network-attached_storage
bastante interessante pois, devido à sua grande flexibilidade,

Technology Leadership Council Brazil


Vai para a nuvem ou não vai?
Antônio Gaspar

Agora tudo vai para Licenciamento de software. Este aspecto tem impacto direto no
a nuvem!” É bem TCO (Total Cost of Ownership). Provedores de software estão
provável que você se adaptando e estabelecendo as políticas de licenciamento
tenha se deparado de seus produtos, especificamente voltadas à utilização em
com essa frase. À ambiente cloud. Embora não seja um quesito propriamente
computação em nu- técnico, conhecer as políticas de licenciamento é um fator
vem, associam-se crítico na análise de elegibilidade, pois mitiga riscos de custos
prerrogativas de es- imprevistos no pós-migração para a nuvem.
calabilidade, elasti-
Interoperabilidade. Com a diversidade de modelos e provedores
cidade e rápido provisionamento, sem falar nas promessas
de cloud, deverão eclodir ecosistemas de TI heterogêneos
de reduções em custos, que promovem grande expectativa
nos quais os workloads estarão distribuídos entre ambientes
e euforia no mercado. Tudo isso é possível, é real, mas têm
tradicionais e uma ou mais nuvens. Sendo assim, é preciso
sua condições. Afinal, como disse Milton Friedman, “there is
avaliar o grau de acoplamento, que representa o nível de
no (...) free lunch”.
dependência entre os diversos módulos funcionais distribuídos.
Então, será mesmo que tudo vai para a nuvem? A resposta Módulos com alto grau de acoplamento, sendo executados em
mais sensata seria: depende. Em outras palavras, é preciso ambientes geograficamente distintos, exigem uma atenção
avaliar os requisitos funcionais e não funcionais de cada especial, por exemplo, quanto a latência de rede e impactos
workload (aplicações e demais sistemas candidatos à cloud). de indisponibilidades em “nuvens isoladas”.
Em contrapartida, é preciso verificar sua aderência aos padrões
Níveis de serviço. Cada workload tem uma criticidade associada,
e requisitos intrínsecos de um servico em nuvem. Exploremos,
alinhada aos resquisitos de negócios. É preciso verificar, portanto,
portanto, alguns dos aspectos qualificadores em um processo
se os SLAs (Service Level Agreement) disponibilizados pelo
de avaliação de elegibilidade à migração para cloud.
provedor de serviços de cloud atendem a esses requisitos.
68
Virtualização. É um dos três pilares fundamentais de cloud
Segurança. Esse é um tópico que certamente merece mais
computing, além da padronização e automação. Na análise de
espaço e discussão. Por hora, ressaltam-se a garantia de
portabilidade de um workload para cloud, é importante verificar
confidencialidade, o controle de acesso aos dados e, devido
sua compatibilidade com o respectivo sistema hypervisor (camada
a questões regulatórias, a localização do repositório na nuvem.
de software entre o hardware e a máquina virtual), disponibilizado
pelo serviço na nuvem. Este detalhe pode parecer irrelevante Importante ressaltar que esses qualificadores variam sua
mas faz toda a diferença, especialmente no que diz respeito relevância de acordo com o tipo de cloud adotada. Clouds
a garantir suporte de terceiros às respectivas aplicações em privadas normalmente são implementadas e direcionadas pelas
ambiente virtualizado, na nuvem. políticas de TI da empresa, potencializando-se o espectro de
elegibilidade dos workloads. Especificamente nas clouds públicas
Capacidade computacional. Aplica-se especialmente na
e nas clouds privadas compartilhadas que esses qualificadores
adoção de modelo IaaS (Infrastructure as a Sevice) de cloud,
são mais relevantes. Conhecer bem os workloads e os serviços em
no qual é preciso estimar as capacidades de armazenamento e
nuvem é, portanto, fundamental para adoção de cloud computing.
processamento que serão demandadas versus as que podem
Esse novo conceito quebra paradigmas dos modelos atuais
ser disponibilizadas pelos recursos na nuvem.
em disponibilização de TI como serviços. É real e irreversível,
Funcionalidades. Intrínseco na adoção de modelo PaaS (Platform promovendo uma transformação sem precedentes nos modelos
as a Sevice) e SaaS (Software as a Service) de cloud, no qual se de organização, processos e tecnologias da informação.
deve verificar os recursos funcionais e possíveis parametrizações
Para saber mais:
de um serviço cloud, a fim de avaliar sua aderência funcional
https://www.ibm.com/developerworks/mydeveloperworks/blogs/ctaurion/?lang=en
aos respectivos requisitos de aplicações de negócios.
https://www.opengroup.org/cloudcomputing/uploads/40/23840/CCRA.IBMSubmission.02282011.
doc

Technology Leadership Council Brazil


Profissão: Arquiteto de Negócios
Marcelo de França Costa

No final da década de 90 eu costumava ser chamado de analista habilidades específicas: formação em administração (MBA ou
de sistemas. Esse título me permitia atuar em todas as fases graduação em Engenharia de Produção, por exemplo), porém com
do ciclo de desenvolvimento de software, do levantamento de ênfase em TI. Para Alex Cullen, analista da Forrester Research,
requisitos à arquitetura da solução, passando pela modelagem “é um papel construído ao redor do planejamento de negócio,
dos dados, implementação e testes. Hoje, entretanto, deparamos descobrindo oportunidades para utilizar TI mais efetivamente” em
com carreiras cada vez mais especializadas. No contexto de vendas, serviços ao consumidor e outras áreas críticas. Segundo
uma nova área de conhecimento (Informática tem menos de o InfoWorld, é atualmente uma das seis carreiras mais atrativas
um século de existência), as respectivas profissões, bem como em TI, com grande potencial de crescimento nos próximos anos.
suas especializações, ainda estão se consolidando, sempre
Como todo profissional, o arquiteto de negócios também utiliza
guiadas pelo mercado. Uma das mais recentes, com cerca de
um conjunto específico de ferramentas. Nesse quesito, muitas
apenas uma década, é a de arquiteto de negócios.
empresas adotam o TOGAF (The Open Group Architecture
Arquitetura de Negócios, assim como sua “irmã”, a Arquitetura Framework) para implantar e evoluir suas arquiteturas. O TOGAF,
Corporativa, são respostas a uma compreensível necessidade que à semelhança do PMBOK (Project Management Body of
do mercado: alinhar Tecnologia da Informação (TI) com a Knowledge) também teve sua origem no DoD (US Department
estratégia e objetivos de negócio. of Defense), compreende métodos
Terminologias à parte, muitos e ferramentas consi-derados
concordam que a diferença básica como melhores práticas. Estru-
entre ambas é o foco. A primeira se turado em fases, possui uma,
interessa pelo planejamento macro conhecida como Phase B, que
do negócio, analisando a supply trata da Arquitetura de Negócios,
chain (cadeia de suprimentos) examinando como a empresa
na qual a empresa se insere, o deve operar para alcançar seus
modelo operacional, a cadeia de objetivos. 69
valor e a lacuna entre o “hoje” e o
Uma atividade realizada nessa fase
“desejado” no âmbito da missão e
é a criação de modelos. Para tanto,
visão da companhia. Já a segunda
o ArchiMate é a linguagem padrão
parte dos objetivos de negócio
que permite descrever, analisar
e de uma visão estratégica de
e visualizar os relacionamentos
TI (o que inclui governança,
contidos nos domínios do negócio.
suporte à gestão do portfólio de
Tais modelos ilustram diferentes aspectos (viewpoints) em níveis
projetos, infraestrutura, pessoas e sistemas). Deixando de lado
de abstração diversos, desde o relacionamento com clientes
as diferenças, ambas caminham juntas quando o assunto é
e fornecedores (um caso de uso de negócio, por exemplo) até
suportar os processos de negócio com o uso racional da TI.
aspectos internos como plataformas tecnológicas que suportam
Ao centro, a figura (retirada do US National Institutes of Health)
os processos de negócio.
exemplifica um framework onde a Arquitetura de Negócios é
mostrada como parte (disciplina) da Arquitetura Corporativa. De forma breve, procurei apresentar aqui a disciplina de
Arquitetura de Negócios, bem como o papel do arquiteto de
No que tange às profissões, outra comparação comum está
negócios. Tanto para profissionais como para empresas, o
relacionada ao analista de negócios. Enquanto esse, normalmente,
momento é oportuno para que desenvolvam expertise nessa
está interessado apenas nos processos de uma unidade de
área de conhecimento, cada vez mais demandada pelo mercado.
negócio ou departamento, o arquiteto se preocupa em modelar
e analisar a empresa como um todo. Para saber mais:
http://www.businessarchitectsassociation.org/
A disciplina de Arquitetura de Negócios vem crescendo em
http://www.opengroup.org/togaf/
importância, assim como a demanda por profissionais com

Technology Leadership Council Brazil


Quatro Horas?
Sergio Varga

Imagine as seguintes sequências de E se houvesse a possibilidade de habilitar


ações: (1) sair de casa, pegar o carro, essa aplicação em apenas quatro horas?
ir ao shopping, comprar um bilhete Muitos diriam que é ainda um sonho,
para o cinema, assistir a sessão de cinema, pegar o carro no mas hoje já é possível.
estacionamento e voltar para casa; ou (2) sair de casa, pegar
Algumas empresas disponibilizaram soluções nas quais, por
um táxi, ir ao estádio de futebol, comprar o ingresso, assistir
meio de integração entre tecnologias de rede, armazenamento
ao jogo e voltar para casa de táxi. Quanto tempo, em média,
e servidor em um único chassis que, com uma camada de
levaria para executar essas sequências? Vamos assumir que
automação, possibilitam rapidamente implantar aplicações em
quatro horas é um número razoável?
poucas horas. Essas soluções consolidam o conhecimento de
Por outro lado, imagine uma empresa que pretende colocar diversos profissionais e demanda um contingente técnico menor
o seu site de vendas em um novo servidor no seu datacenter. para administrá-las e suportá-las.
Qual é o tempo necessário para habilitar tal serviço, desde a
70 É a tecnologia a serviço da tecnologia ou, ainda, é a tecnologia
instalação do equipamento no datacenter até iniciar o serviço,
a serviço da gestão de TI. Isso já ocorreu com a utilização
já pronto para ser usado pelo usuário? Um mês? Uma semana?
de robôs, mas agora está acontecendo na área de sistemas
Um dia? Quatro horas?
computacionais.
Quem afirmou “um mês” com certeza pensou no modelo
Em um mundo altamente conectado e inteligente, a capacidade
tradicional de serviços em TI onde é necessário instalar o
de reagir de uma maneira rápida a mudanças pode ser um
servidor no datacenter, configurar as conexões de rede e de
diferencial competitivo. E com certeza podemos visualizar novas
armazenamento, instalar o sistema operacional e configurá-lo,
soluções que poderão surgir dentro desse conceito como na
instalar e customizar servidor de web e de banco de dados
área de business analytics, com soluções persononalizadas
e finalmente instalar a aplicação web. Sem falar na alocação
para segmentos específicos de indústria, ou sistemas cognitivos
dos profissionais de várias áreas de suporte como rede,
com soluções integradas que envolvam o conhecimento de
armazenamento, servidor e outras.
uma determinada área de negócio.
Aquele que pensou em “uma semana” talvez tenha considerado
Com essa tecnologia surge também um novo tipo de profissional:
um servidor já instalado no datacenter, possivelmente virtual,
o administrador de sistemas integrados, que precisa entender
utilizando imagens padronizadas e previamente criadas, já com
as várias tecnologias utilizadas e as várias disciplinas de
o sistema operacional e, eventualmente, até com a instalação
administração como gerenciamento de usuários, segurança,
e configuração do software e da aplicação.
monitoração e desempenho. Será que podemos estar entrando
Os mais otimistas, que pensaram em “um dia”, com certeza em uma nova era da gestão de TI?
consideraram um ambiente previamente configurado em teste,
Para saber mais:
exigindo apenas personalizações mínimas para habilitar o sistema
http://www.youtube.com/watch?v=g9EGP2tkoQw&feature=colike
em produção, ou ainda um ambiente em cloud privada com
http://tech.journeytofrontier.com/2012/04/ibm-unveils-puresystems.html
as imagens já definidas e configuradas, exigindo somente a
instalação da aplicação.

Technology Leadership Council Brazil


Se botar sua reputação na vitrine, ela vai valer mais que R$ 1,99?
Wilson E. Cruz

Muitas vezes um fato cor- Esse processo nos dá de brinde uma definição importante:
riqueiro e aparentemente reputação no mundo virtual é a repetição de interações bem-
insignificante pode ser o sucedidas. Pode ser uma interação de troca, mas também
gatilho ou o catalisador poderia ser, em outro site, a resposta correta a uma pergunta,
para uma ideia. Serve tudo, o pagamento em dia de uma dívida ou a prestação eficiente
até mesmo algo bem trivial, de um serviço.
por exemplo uma simples
Mas podemos assumir que alguém que faz centenas de
transação de troca de figu-
trocas bem-sucedidas é um bom pagador de suas dívidas ou
rinhas do álbum de meu filho.
compromissos? E quem responde corretamente muitas dúvidas
Mais especificamente uma
sobre um assunto, pode ser um bom prestador de serviços
troca articulada pela Internet.
relacionados a esse assunto?
O site é simples: o usuário se
Essas perguntas geram um enorme campo para se pensar
registra, cadastra um álbum que está colecionando, as figurinhas
e se articular novos negócios: um varejista poderia incluir a
repetidas que tem, as que lhe faltam, e o site se encarrega de
reputação registrada no site de trocas para fortalecer a análise
fazer o “match”, ou seja, oferecer as possibilidades de troca,
de crédito daquele senhor que quer comprar uma televisão a
que são, obviamente, concluídas no mundo real, com o envio
prazo. O cidadão interessado em contratar um bom marceneiro
das figurinhas repetidas e o recebimento das desejadas, pelo
para fazer seus móveis de sala poderia começar sua seleção
correio. A sutileza dessa transação está no seguinte: como
nos sites de aficionados por marcenaria, buscando os mais
confiar naquele fulano que diz que vai mandar as figurinhas
frequentes, fiéis e competentes respondedores de dúvidas.
que você precisa?
Múltiplas características, competências ou virtudes dão origem
A resolução desse impasse, nesse site, é simples e notável:
a múltiplas reputações, ou praticamente um “currículo virtual” de
cada vez que se fecha uma transação de troca, é gerada para
reputações confirmadas por interações virtuais bem-sucedidas 71
os dois lados uma pendência de avaliação, que é resolvida
em vários campos. E dá para imaginar o valor que esse currículo,
quando o recebedor declara que recebeu as figurinhas conforme
bem administrado, pode ter para quem quer realizar atividades
combinado e, portanto, está satisfeito com o remetente. Ao
e negócios na rede.
registrar o recebimento, é gerada uma pontuação ao remetente.
O acúmulo de pontos se traduz em patamares de reputação, A coleta de dados que buscam quantificar a reputação já
representados por um símbolo que fica colado ao perfil pessoal é uma realidade. Mas cada um tem a própria fórmula, não
do usuário e que aparece o tempo todo, inclusive quando uma necessariamente a correta ou a mais útil. Ninguém, ainda, fez algo
troca está sendo proposta. Ou seja, ao decidir se uma troca é de realmente inovador na área da administração e intercâmbio
interessante, a reputação de um usuário aparece claramente de reputações, sustentando transações de valor comercial.
e influencia na decisão do outro. Trocar com um “arquiduque” Teríamos aí um novo candidato a bilionário?
que já fez mais de duas mil trocas é mais seguro e garantido Para saber mais:
do que trocar com um “peregrino” que não tem ponto algum. http://www.trocafigurinhas.com.br

Mas e as primeiras trocas? Se um novato não tem pontos, então http://trustcloud.com

não tem reputação. E aí? É simples. Quem não tem pontos é


convidado a enviar as suas figurinhas antes, de tal maneira
que o outro espera chegar, avalia positivamente, gerando os
primeiros pontos para o remetente, e a partir daí envia as suas,
resolvendo o problema de falta de reputação inicial.

Technology Leadership Council Brazil


O que é Segurança da Informação
Avi Alkalay

Você sabia que o tema segurança vem sendo apontado por todos os participantes do fluxo da informação, ou seja, todos os
anos consecutivos como um dos assuntos que mais geram colaboradores de uma empresa. É um processo. E sendo assim,
interesse no mercado de TI? Os provedores de tecnologia deve estar presente desde a confecção de uma aplicação por
gostam de abordá-lo na mídia e em eventos, devido aos muitos um programador até seu uso na mesa do usuário final.
produtos e serviços que podem ser ofertados, num padrão
O passo inicial é adotar um método. O segundo é aplicá-lo
similar ao da “indústria do medo” na área de segurança pessoal
na área de desenvolvimento de aplicações, que, concebidas
e carros blindados.
com preocupações de segurança, fazem com que seja mais
Por exemplo, se uma vulnerabilidade é maliciosamente explorada fácil garantir segurança real mais adiante. Uma boa prática é
numa empresa, o responsável pela segurança será severamente não reinventar a roda sempre que um programa novo estiver
punido pelo seu superior. E um fator psicológico que ameniza sendo escrito. O uso de um framework maduro de mercado,
isso parece ser adquirir vários produtos de segurança para como o Java Enterprise Edition, pode ajudar a resolver esses
lançar-lhes a culpa no caso de um incidente. problemas e abstrair níveis que o programador corporativo não
precisa abordar.
Também é fato que quanto mais produtos
de segurança uma empresa adquire, Costumo dizer também que segurança
mais produtos haverá para gerenciar e é sinônimo de organização. É possível
não necessariamente estará mais segura. conceber segurança num data center
Eleva-se, aliás, a chance de estar insegura desorganizado? Faremos um bom traba-
devido ao aumento de complexidade na lho se organizarmos a TI sem pensar
operação do ambiente. em segurança? Não há segurança sem
organização e vice-versa.
Então o que é segurança? Uma definição
que eu gosto é “segurança em TI se É comum também encontrar empresas
72 interessa por tudo que abrange a em que segurança tem tamanha ênfase
confidencialidade, disponibilidade e inte- (às vezes em níveis neuróticos), que fazer
gridade da informação”. Essa definição certos negócios passa a ser proibitivo,
tem derivações óbvias: “estamos inseguros se alguém de fora porque “é inseguro”. Reflexo comum disso é não permitir o
pode ver as informações internas de nossa empresa”; “estamos uso das ferramentas práticas de mensagem instantânea ou de
inseguros se nossos dados desaparecem”; e “estamos inseguros redes sociais. Mas ao fazer isso pode-se perder a oportunidade
se alguém modifica maliciosamente nossas informações”. de gerar relacionamentos com clientes ou parceiros que usam
intensivamente essas ferramentas. Então é bom ou ruim permitir
Mas o que muitos ignoram é que a informação pode ser exposta,
esse tipo de abertura? A experiência tem mostrado que o
perdida ou deteriorada por fatores operacionais e não maliciosos,
resultado geral é positivo quando se permite a comunicação
como um disco lotado ou uma configuração equivocada de
entre as pessoas.
algum software que nada tem a ver com segurança. Até uma
aplicação desenvolvida internamente, talvez por um programador O paradoxo é que empresas só fazem negócios quando seus
inexperiente, pode consumir todo o poder de processamento funcionários se comunicam com o mundo externo e o impulso
de um servidor, deixando seu serviço, e por consequência a natural da segurança é restringir isso. Proteger a informação não
informação, indisponível. significa torná-la indisponível. Portanto, nem tanto ao céu, nem tanto
à Terra: segurança em TI deve ser gerida de forma responsável,
Segurança não é firewall. Não são senhas. Nem serviço que se
consciente, com a mente aberta e, principalmente, inovadora.
adquire como uma caixa-preta. Nem criptografia. Nada disso
vale se estiver em mãos inexperientes ou inconsequentes. Para saber mais:
Segurança corporativa em TI deve ser um valor perene em http://WorldOfEnds.com

Technology Leadership Council Brazil


A matemática do acaso
Kiran Mantripragada

“Deus não joga dados com o universo”. Apesar de suas


contribuições para o nascimento da mecânica quântica, Albert
Einstein não conseguia aceitar a sua formulação probabilística.
Isso ficou claro quando Einstein escreveu essas palavras
para o seu amigo Max Born, em uma tentativa de refutar o
desenvolvimento matemático de Werner Heisenberg, responsável
pela fundamentação do Princípio da Incerteza. A frase mostra
a dificuldade de Einstein em aceitar que a natureza possa ter
algo de imprevisível ou de aleatório. A ciência atual prega que
Einstein estava errado nessa questão.

Infelizmente essas palavras se tornaram muito conhecidas fora


do mundo científico e são, frequentemente, usadas em debates
religiosos ou filosóficos, talvez até de forma equivocada, onde se tenta
justificar a existência de um “destino” ou um futuro predeterminado. Controvérsias à parte, será que podemos afirmar que
aleatoriedade realmente existe na natureza? Mais um vez, se
Mas a Teoria das Probabilidades ainda nem havia nascido
o leitor for um tanto pragmático, pode afirmar que o jogo de
formalmente. Essa matemática que tenta descrever o acaso
cara-ou-coroa é descrito pela mecânica clássica de Newton,
só foi fundamentada em 1957 por Andrey N. Kolmogorov, ou
ou seja, se forem conhecidas com precisão todas as condições
seja, alguns anos depois de Einstein e Heisenberg. Por outro
iniciais e condições de contorno (como velocidade inicial, força,
lado, os conceitos de probabilidade, aleatoriedade, acaso e
vento, atrito, massa, centro de massa da moeda, etc.), pode-se
imprevisibilidade já faziam parte do senso comum desde a
então calcular qual face deverá cair voltada para cima.
antiguidade clássica.
Na realidade este é exatamente o problema da previsão
Há tempos que essas noções já vinham sendo utilizadas em 73
meteorológica, pois assim como na moeda, qualquer instabilidade
diversos lugares, desde jogos de azar, cassinos, jogos de dados,
ou imprecisão nas condições iniciais podem trazer resultados
cara-ou-coroa, adivinhação, tomadas de decisão em negócios,
divergentes. É o tal do “efeito borboleta”, mas isso é assunto
análise de riscos e até na legislação.
para a Teoria do Caos, que difere do conceito de aleatoriedade.
Entretanto, é comum o ser humano cometer erros quando
E no computador? Já imaginou como “gerar” um número
submetido à noção de acaso. Um exemplo clássico é a “Falácia
aleatório? Um cientista da computação sabe que gerar um
do Apostador” no qual os jogadores mantém uma crença comum
número randômico não é algo trivial, por isso é comum o uso
de que, após uma sequência de perdas em jogos de azar, sempre
da expressão “pseudoaleatório” para estes números gerados
se seguirá uma sequência de ganhos (e vice-versa) como uma
artificialmente. Em resumo, o computador precisa de uma fórmula
espécie de auto compensação.
para gerar números, mas se existe qualquer fórmula matemática
Mas o que significa aleatoriedade? Será que na natureza existem para isso, o tal número gerado é essencialmente não aleatório,
realmente eventos aleatórios ou absolutamente imprevisíveis? pois ele pode ser calculado a priori.

Mesmo antes de Kolmogorov, já era comum usar a brincadeira de Este artigo não tem como propósito trazer conclusões sobre
cara-ou-coroa para mostrar os conceitos de imprevisibilidade e o tema, mas proporcionar insumos para discussões mais
de probabilidade. Sabe-se que mesmo havendo 50% de chances aprofundadas, talvez em um boteco com os amigos. E para
de cair uma determinada face, não se pode afirmar com certeza isso, que tal começar com a frase: “Provavelmente a natureza
o que deve acontecer na próxima jogada. Isso não significa que a não é determinística”.
matemática está errada. Ela prova apenas que, em uma quantidade
Para saber mais:
infinita de jogadas, o número de aparições de uma determinada
Artigo: What is a random sequence? (Sergio Volcham)
face tende a 50%. Ainda, se o leitor quiser ser pragmático, pode
http://pt.wikipedia.org/wiki/Aleatoriedade
afirmar que este infinito deve ser um número par, pois se for um
Imagem obtida no site http://filipinofreethinkers.org/
“infinito impar” o valor nunca será exatamente 50%.

Technology Leadership Council Brazil


A Origem do Logical Data Warehouse (LDW)
Samir Nassif Palma

A gestão da informação tem um valor cada vez maior nas já indica um salto no volume total, hoje avaliado na casa dos
organizações. Grandes volumes de dados são manipulados zettabytes (1021 bytes). É o Big Data aparecendo como forte
diariamente com o objetivo final de suportar o processo de candidato a protagonista.
tomada de decisão.
Há, portanto, diferentes fatores que pressionam a busca por
Essa história começou há 30 anos com os sistemas de suporte à alternativas na gestão informacional, sem esquecer sua própria
tomada de decisão ou Decision Support Systems (DSS). Depois, governança e o aproveitamento dos componentes legados.
vieram os armazéns de dados ou Data Warehouses (DW), que Assim, em 2009, surgiu o conceito de ambiente informacional
são protagonistas da habilidade de prover um ambiente analítico (ou analítico) lógico, ou Logical Data Warehouse (LDW), que
para inteligência do negócio ou Business Intelligence (BI). Em propõe a adoção de uma visão completa, integrada e abrangente
seguida, os DWs cresceram e se tornaram corporativos, onde de todos os ativos de informação da organização, visão que é
todos os departamentos são fornecedores e consumidores de suportada por diferentes recursos tecnológicos em múltiplas
informação em um ambiente estruturado. plataformas. O conceito em si propõe o papel de uma nova
agregação dos dados. Há uma quebra de paradigma se
Surge o conceito do Enterprise Data Warehouse (EDW), que
comparado ao EDW, onde o dado é centralizado. O LDW é
veio para ficar. Porém, com o crescimento do volume de dados
composto por múltiplos repositórios de dados, elementos de
e do número de consumidores, o desempenho de resposta
distribuição de processos, descentralização de cargas de
desses sistemas passa a determinar o valor real do ambiente
trabalho, plataformas especializadas, virtualização de dados,
analítico para a empresa. A informação precisa ser obtida no
e uma eficiente gestão de metadados.
tempo necessário, sob pena de não ter mais significado para
o negócio. É a latência da informação, principal requisito para Os metadados são dados que descrevem e explicam dados e
os ambientes informacionais. se tornam chave nessa visão, principalmente na orquestração
dos acessos às bases e entre os ativos que armazenam os
Tal requisito tem gerado investimentos em recursos tecnológicos,
dados requisitados. A inteligência passa para a definição de
74 como processadores mais potentes, redes mais velozes, discos
qual elemento do ambiente responderá à demanda solicitada.
magnéticos com armazenamento particionado, paralelismo de
Surge o Catálogo de Informações e sua governança.
acessos, entre outros, que proporcionam um melhor desempenho
aos usuários finais. Entretanto, tal ganho é temporário. A matu- O LDW protege o investimento da organização em plataformas
ridade e o valor agregado do ambiente informacional cresce de dados, aproveitando o legado informacional e permitindo
proporcionalmente à sua quantidade de acessos. Quanto mais dedicar novos investimentos em demandas especializadas
acessos, maior é o uso, e assim maior é sua importância e outra (appliances, por exemplo). Para o negócio, o LDW representa a
vez o desempenho pode ser afetado. adaptação e resposta às crescentes exigências informacionais
do mercado, com altos volumes e variedade.
Também são realidade as iniciativas paralelas e pulverizadas
conduzidas por diversas áreas da organização, que adotam A informação como ativo de valor da organização não precisa
processos próprios e tecnologias que diferem dos padrões estar centralizada, mas sim sua governança, o que inclui a
definidos por TI. Além disso, novos tipos de dados devem gestão de metadados, o controle e a administração da
ser processados e consumidos, e representam alto valor ao informação.
cliente-consumidor. São dados não estruturados, estimados em
Para saber mais:
80% do total disponível, o que inclui emails, textos, planilhas,
http://thinking.netezza.com/blog/logical-data-warehouse-smart-consolidation-smarter-warehousing
posts em redes sociais, blogs, vídeos, etc. O próprio percentual

Technology Leadership Council Brazil


Storage & Fractais
Márcia Miura

Quando recebi o convite para visitar o laboratório de storage uma montanha, um brócoli ou um alvéolo pulmonar, podem ser
da IBM em Tucson (EUA) logo imaginei uma sala repleta de quebrados infinitamente em frações que se repetem, formando um
bancadas com nerds debruçados sobre equipamentos, vísceras padrão. Mandelbrot analisava gráficos de erros de transmissão
expostas... conseguiria eu estabelecer comunicação com os de dados, e notou que o padrão de erros era igual para 1 dia, 1
cientistas e aprender algo? hora e 1 segundo. A visão microscópica era a repetição da visão
macro. Essa descoberta foi importante também para diversas
Essa imagem inicial foi apenas um dos aspectos da minha
outras áreas, como nos programas de diagnóstico de tumores,
experiência que foi, no mínimo, fascinante. Trabalho desenhando
nos efeitos especiais de filmes de ficção (Star Trek foi o primeiro
soluções de storage nas quais são considerados aspectos
a usar essa técnica) e no design das antenas de celular.
práticos como custos, desempenho e arquitetura, sempre com
o viés de negócios. O dimensionamento de uma solução de A organização do armazenamento de dados em hierarquias
armazenamento passa por modelagem de dados e análise do de cache tornou possível melhorar o desempenho de acesso,
comportamento do aplicativo de um determinado cliente. Dessa mas trouxe o desafio de criação de algoritmos cada vez
forma, sob o ponto de vista do conhecimento científico, eu sou mais complexos para o gerenciamento de cache. Bruce Mc
quase usuária final das ferramentas e Nutt, engenheiro sênior da divisão de
produtos exaustivamente estudados e storage da IBM, observou o acesso a
testados no laboratório. dados num mainframe e descreveu o
padrão repetitivo no livro “The Fractal
A primeira reunião de que participei
Structure of Data Reference”. O perfil
referiu-se ao comportamento dos dados
de acesso na memória do servidor se
em memória cache e sua representação
repetia nos buffers dos processadores,
matemática em um novo subsistema de
na memória central do processador,
discos. A influência de um novo nível de
no cache do subsistema de discos
cache no subsistema é comprovada
e nos discos físicos. O mérito dessa 75
por meio da medição de desempenho
constatação é que os desenvolvedores
dos diversos tipos de cargas de leitura
e arquitetos de produtos de software e
e gravação. Tal como na Física Quântica,
hardware podem elaborar algoritmos
que estuda o comportamento do elétron
inteligentes, que otimizem o uso dos diversos níveis de
e tenta descrevê-lo por meio de equações, o comportamento
memória resutando em melhor desempenho. As soluções de
dos dados em cache também precisa ser estudado e descrito
storage tendem a ser cada vez mais inteligentes e integradas
por equações, que por sua vez devem ser inseridas em um
ao software e, para isso, o conhecimento dos padrões de
software de modelagem para executar simulações. Esse estudo
acesso é fundamental.
exige medições com variáveis distintas até que se obtenha uma
conclusão que afetará o dimensionamento das soluções para Era dificil imaginar que aquelas estruturas coloridas e graciosas
os clientes de storage. pudessem explicar tantas coisas na natureza e que estivessem
presentes no nosso dia-a-dia em tecnologia. Do ponto de vista
Na discussão acalorada entre especialistas sobre o compor-
filosófico, pode-se dizer que há sempre uma nova forma de
tamento dos dados em cache, fiquei abismada ao saber que
ver o mundo (a geometria Euclidiana não permitia essa visão),
a Teoria dos Fractais também se aplica ao padrão de acesso
ensinando que uma pequena parte pode representar o todo.
aos dados nos diferentes níveis de memória incluindo cache.
Para saber mais:
Benoit Mandelbrot (1924 - 2010), pesquisador da IBM, enunciou
Fractals – Hunting the hidden dimension – DVD da PBS Nova
em 1975 que qualquer formato na natureza pode ser descrito
The Fractal Structure of Data Reference, Bruce McNutt
matematicamente em frações que ele chamou de Fractais.
TCL-BR MP #123 - O homem que enxergou a forma das coisas (ibm.co/16sDsuQ)
Qualquer formato irregular como a estrutura de uma nuvem,

Technology Leadership Council Brazil


Social Business versus Social Business Model
Rodrigo Jorge Araujo

Você realmente sabe o significado do termo Social Business? Nesse novo modelo de negócios, as empresas precisam
Como ele foi criado ou como é utilizado no mercado? cada vez mais ouvir, entender e responder às necessidades
de seus clientes, ao mesmo tempo em que os consumidores
O termo Social Business foi criado há mais de 20 anos pelo
querem cada vez mais saber sobre a reputação, idoneidade e
economista, ganhador do Prêmio Nobel da Paz, Prof. Muhammad
capacidade das empresas em atender aos seus requerimentos
Yunus para definir um modelo de desenvolvimento sócio-
e necessidades. Se essa interação não for eficiente, os riscos
econômico que tem por base uma filosofia de investimentos
de perda de mercado são altos e reais.
na capacidade das pessoas e empresas para se tornarem
auto-suficientes, inventivas e empreendedoras com o objetivo O e-Commerce mudou a forma como as pessoas e empresas
do desenvolvimento mútuo. faziam negócios, o Social Business está mudando a forma como
as partes são reputadas, o que afeta diretamente na capacidade
Na definição de Yunus: “Um negócio social é uma empresa
de se manterem ativas no mercado. É uma mudança notável no
sem perdas nem dividendos, projetada para atingir um objetivo
modo como empresas e indivíduos se relacionam.
social dentro do mercado altamente regulado de hoje. É diferente
de uma organização sem fins lucrativos Por esse motivo, cada vez mais as
porque o negócio deve buscar gerar um empresas procuram soluções de
lucro modesto, mas esse será usado comunicação em alta velocidade,
para expandir o alcance da empresa, redes sociais, armazenamento de
melhorar o produto ou serviço ou outras dados em nuvem e análise de grandes
formas que subsidiem a missão social”. volumes de dados que as auxiliem a
entender e se comunicar com seus
Alguns princípios foram criados para
clientes e parceiros de negócio.
definir o Social Business, segundo Yunus:
Nesse cenário a tecnologia tem um
• O objetivo do negócio não é
76 papel fundamental em suportar e
a maximização do lucro, mas
gerenciar as novas interações sociais
sim superar a pobreza e outros
e comerciais que deixarão de ser
problemas que ameaçam as pes-
opções e passarão a ser essenciais
soas, tais como educação, saúde,
para o sucesso dos negócios.
acesso a tecnologia e meio-ambiente.
E, como no passado, novas áreas e oportunidades começam a
• Sustentabilidade econômica, financeira e consciência
surgir, assim como a necessidade de profissionais especializados
ambiental.
nas mais diversas disciplinas. Você já se imaginou em uma
• Investidores recebem de volta apenas a quantia que reunião estratégica com um Diretor de Marketing Online ou
investiram; nenhum dividendo é dado além dessa quantia envolvido em um projeto com o Gerente de Comunidades e
e o lucro da empresa permanece nela para expansão e Redes Sociais?
melhorias.
Para saber mais:
• A mão-de-obra envolvida recebe remuneração de mercado, Livro - Building Social Business: The New Kind of Capitalism that Serves Humanity’s Most Pressing
com melhores condições de trabalho. Needs.[S.l.]:PublicAffairs, 2011. 256 p

http://bit.ly/1090gcP
• Faça com alegria.
http://bit.ly/16UcoFi

Já o Social Business Model (popularmente conhecido apenas http://onforb.es/11Eem8Q


como Social Business) é um modelo recente aplicado a negócios
que adotaram ferramentas e práticas de redes sociais para
funções internas e externas dentro das suas organizações,
com o objetivo de gerar valor para todos os envolvidos, como
funcionários, clientes, parceiros e fornecedores.

Technology Leadership Council Brazil


Método Científico e Trabalho
Gregório Baggio Tramontina

Na maioria das vezes nós não nos damos conta, mas aplicamos e a da relatividade de Albert Einstein, que até hoje fornecem
ao menos parte do método científico no nosso dia-a-dia e também explicações verificáveis para uma vasta gama de fenômenos
no nosso trabalho. Ele nos ajuda a resolver os problemas e naturais mesmo frente aos mais novos testes a que são submetidas.
a fornecer argumenta-ções e informação justificada quando
Claro, nem toda pesquisa termina com uma teoria totalmente nova,
necessário. Mas o que é o método científico e por que é importante
mas pode propor ajustes ao conhecimento existente, confirmar
conhecê-lo?
aspectos novos de uma teoria ou mesmo mostrar que conceitos
O método científico é um conjunto de técnicas para a investigação importantes, à luz de novos dados, são na verdade incorretos
dos fenômenos que nos (vide o caso do éter, o meio
cercam, para deles podermos proposto para a propagação
gerar novos conhecimentos da luz, refutado no famoso
ou ajustar e corrigir o que experimento de Michelson-
já sabemos. É um esforço Morley em 1887 – para uma
empírico com base em evi- referência mais completa veja
dências mensuráveis. E o link abaixo).
embora as especificidades
Em nosso trabalho frequen-
variem de área para área
temente nos deparamos com
de conhecimento, pode-se
situações que pedem uma
identificar dois elementos
análise apurada para se-
comuns que conferem a sua
rem resolvidas e são nes-
forma geral. Esses elementos
ses momentos em que
básicos são as hipóteses e os
nossas habilidades, como o
testes dessas hipóteses.
pensamento crítico, são mais
77
Ao observar um fenômeno, um requisitadas. A elaboração de
cientista propõe uma ou mais hipóteses e seus testes frente
hipóteses para explicá-lo. As hipóteses não surgem do nada, mas ao problema que se apresenta formam o cerne de nosso processo
vêm daquilo que já se conhece sobre o fenômeno (ou fenômenos investigativo.
parecidos) e seguem também uma análise de plausibilidade. Com
Além disso, é possível traçar uma relação direta entre o que
as hipóteses, o cientista então propõe testes para validá-las ou
fazemos para resolver nossos desafios profissionais e os
refutá-las. Os testes devem ser passíveis de repetição por outros
elementos do método científico. Portanto, conhecendo mais a
cientistas, para verificação independente, e devem ser os mais
fundo o método temos a oportunidade de melhorar os resultados
objetivos e controlados possíveis para evitar tendenciosidade nos
de nosso trabalho. E isso é refletido em todos os fatores que
resultados. As hipóteses também geram previsões, por exemplo,
deles derivam, como por exemplo a satisfação final do cliente.
se elas forem verdadeiras, então espera-se observar certos valores,
Um exemplo dessa aplicação talvez seja em times de suporte à
comportamentos ou novos fatos sobre o fenômeno. Essas previsões,
produção, nos quais a análise e resolução rápidas e acertadas
por sua vez, podem ser confirmadas com mais testes e observações,
de um problema podem fazer a diferença entre o sucesso ou
tornando a pesquisa ainda mais fundamentada.
fracasso de um projeto.
Esse processo culmina quando fornece uma teoria. Na ciência,
O método científico tem a capacidade de melhorar nosso trabalho
o significado da palavra teoria é diferente do seu uso geral.
e suas lições têm grande abrangência e utilização imediata.
Coloquialmente, uma teoria é um “palpite” sobre a explicação
Portanto vale a pena conhecê-lo e aplicá-lo.
de algo, mas sem necessidade de maiores confirmações.
Cientificamente, uma teoria é muito mais, compondo-se de Para saber mais:
um corpo de conhecimento estabelecido e bem suportado What Was the Michelson-Morley Experiment?

pelas evidências disponíveis. Exemplos de teorias científicas Understanding and using The Scientific Method

conhecidas são a da evolução das espécies de Charles Darwin Wikipedia - Epistemology

Technology Leadership Council Brazil


Qual é o tamanho do link?
José Carlos Bellora Junior

Um todo projeto de infraestrutura de TI é muito comum a seguinte podem comunicar-se através da troca de mensagens por links
pergunta: Qual é o tamanho do link? De fato, à medida que compartilhados, sem a necessidade de circuitos dedicados.
novos sistemas, usuários e localidades precisam de acesso, a
Estudos demonstram que o tempo de resposta da rede é
capacidade dos enlaces de rede (também conhecidos como links
diretamente influenciado pelo tamanho da mensagem trafegada,
de dados) em fornecer um bom serviço é sempre questionada.
sendo necessários tamanhos menores para otimizar o tempo
O planejamento e o gerenciamento de capacidade das redes de
de transmissão. Esse conceito faz com que a comunicação
comunicação podem ser facilitados caso o tráfego envolvido seja
seja executada através da troca de pequenos segmentos
previsível, ou possa ser medido de forma a aproximá-lo de um
de informação conhecidos como pacotes, a essência das
modelo padrão. Determinar o comportamento do tráfego através
redes atuais.
de medição é requisito fundamental para o dimensionamento e
o gerenciamento dos recursos em uma rede de dados. A obtenção dos dados necessários para uma caracterização
precisa do tráfego em redes de
A medição e a modelagem do
alto desempenho é essencial
tráfego têm sido realizadas desde
para o desenvolvimento de novas
que houve a necessidade de
tecnologias, planejamento de
computadores remotos trocarem
capacidade, gerenciamento e
informações entre si. O tráfego de
engenharia de tráfego de rede.
dados possui períodos de “rajadas”
A maioria dessas atividades
seguidas por longos períodos de
necessita de um modelo para
“silêncio”. Essa característica é
fazer uma previsão de curto ou
observada com medidas em
longo prazo do tráfego.
várias escalas de tempo (de
milissegundos a minutos), o que Atualmente, os administradores de
78 caracteriza a autossimilaridade rede se valem de medições com
do tráfego. A importância desse base em SNMP (Simple Network
comportamento está no fato de Management Protocol) existente
ser difícil determinar uma escala natural de tempo para o nos próprios componentes de rede (roteadores e switches)
dimensionamento, pois o tráfego real não converge para um ou em monitoração de pacotes, para o qual necessitam de
valor médio em escalas maiores. Essa característica invariante equi-pamentos específicos para captura e armazenamento de
das rajadas resulta em baixa utilização dos recursos da rede dados (sniffers). Essas medições possibilitam obter informações
para qualquer tipo de serviço, ou seja, é necessário deixar variadas sobre o tráfego com maior ou menor nível de detalhe,
uma banda ociosa para acomodar o tráfego em eventuais dependendo do método empregado. É importante que o
períodos de rajadas. projetista da rede tenha informações diversas que apontem
características predominantes do tráfego e padrões de uso
A ineficiência na utilização dos canais de comunicação faz com
das aplicações que o ajudem a identificar possíveis problemas,
que a tecnologia seja empregada com base no princípio do
como congestionamentos.
compartilhamento dinâmico dos recursos da rede (roteadores,
switches, links). Os dados da comunicação entre os computadores Agora, sempre que você questionar qual deverá ser o tamanho do
são multiplexados em um único canal, não de forma determinística link, pense logo que isso dependerá do padrão de tráfego de rede.
com reserva de tempo, mas de forma aleatória (multiplexação Para saber mais:
estatística), de modo que o acesso à rede é imediato a qualquer http://ccr.sigcomm.org/archive/1995/jan95/ccr-9501-leland.pdf
instante e com qualquer duração. Dessa forma, os computadores http://www.caida.org/research/traffic-analysis/

Technology Leadership Council Brazil


Bancos de Dados NoSQL
Claudio Alves de Oliveira

Embora o conceito de NoSQL tenha surgido em 1998, ele ainda Ainda assim, o NoSQL não rompe com o “império” dos bancos
não se tornou muito conhecido, mesmo entre os profissionais de relacionais, mas complementa-os, já que ambas as tecnologias
tecnologia. Para abordá-lo, precisamos considerar um assunto podem coexistir.
mais amplo, o Big Data, que atualmente vem despertando a
Entre as vantagens dos bancos NoSQL em relação aos relacionais,
atenção dos gestores de TI e empresários face à sua importância
destaca-se a facilidade de escalabilidade vertical (aumento
para decisões operacionais e estratégicas, pois pode ajudá-
de recursos dentro de um servidor) e horizontal (aumento no
los em atividades como geração de negócios, novas linhas de
número de servidores). Essa facilidade é um benefício direto
produtos e até na criação de necessidades de consumo.
para os desenvolvedores, que passam a se preocupar mais
As análises em grandes massas de dados podem trazer respostas com suas aplicações e menos com manutenção. Esse é um dos
que antes não seriam possíveis de ser obtidas, por isso é grande maiores motivos pelos quais os bancos NoSQL se espalharam
79
o potencial de mercado do Big Data, bem como o desejo das rapidamente entre as maiores aplicações web em funcionamento.
empresas de adotá-lo.
Por ter sido projetado para armazenamento de dados distribuídos
Para tratar uma imensa quantidade de dados e aproveitá-los e em larga escala, grandes empresas de serviços de busca
da melhor maneira possível, estão sendo criadas tecnologias e mídia social usufruem diretamente da tecnologia NoSQL e,
que sustentam o Big Data como o NoSQL para infraestrutura algumas pesquisas indicam que sua adoção pelo mercado
de banco de dados, Stream Computing como novo paradigma está em pleno crescimento.
e Hadoop e MapReduce voltado para análise de dados.
É a necessidade do negócio que define qual abordagem deve
O NoSQL (Not only Structured Query Language) é um termo ser utilizada. Há que se utilizar critérios de comparação como a
genérico para uma classe definida de bancos de dados não- escalabilidade do sistema, questões de consistência dos dados,
relacionais, que têm uma propriedade chamada BASE (Basically a existência ou não de linguagem de consulta e até a facilidade
Available, Soft state, Eventual consistency), que distribui os dados de uso. Os bancos relacionais já têm mais tempo no mercado,
em diferentes repositórios tornado-os sempre disponíveis, não se portanto são mais maduros e experimentados, porém mais
preocupa com a consistência de uma transação, delegando essa limitados. Já as implementações NoSQL, ainda que estejam
função para a aplicação, porém sempre garante a consistência definindo um padrão próprio, são peças chave para o sucesso
dos dados em algum momento futuro à transação. das iniciativas em torno de Big Data.

Esse conceito é exatamente o oposto das propriedades principais Para saber mais:
dos tradicionais RDBMS (Relational Database Management http://www.google.com/trends/explore#q=NOSQL
System), que são Atomicidade, Consistência, Isolamento e http://www.ibm.com/developerworks/br/data/library/techarticle/dm-1205bigdatauniversity/
Durabilidade, também conhecidas como ACID.

Technology Leadership Council Brazil


Os desafios da Internet das Coisas
Fábio Cossini

No seu artigo “A Internet das Coisas” (2011), José Carlos Duarte No entanto, para que os benefícios da Internet das Coisas se
Gonçalves nos apresenta a evolução da Internet e o conceito realizem plenamente, alguns obstáculos deverão ser eliminados.
daquilo que hoje é conhecido, dentre outros nomes, por Internet O primeiro deles é a diversidade de padrões existentes para
da Coisas. De uma histórica interação homem-máquina através comunicação entre objetos. O projeto CASAGRAS2, patrocinado
de navegadores (browsers), essa nova Internet viabiliza a conexão pela Comunidade Europeia, identificou 127 padrões publicados
entre objetos, pessoas e o ambiente que os cerca, possibilitando e 48 em desenvolvimento em seu relatório final de 2012. Esses
a troca e o processamento de informações para tomada de padrões cobriam 18 áreas que se estendiam desde protocolos
ações, muitas vezes, sem intervenção humana. Porém, como de rádio-frequência (RFID) até padrões de comunicação voltados
em todo início de uma nova era tecnológica, muitos são os para indústrias específicas, como a de saúde.
desafios para sua consolidação e uso com ampla aceitação.
Com o crescimento exponencial de objetos que poderão se
A aplicação da Internet das Coisas já altera o dia a dia de milhares comunicar entre si, a identificação unívoca de cada um torna-se
de pessoas ao redor do mundo. O projeto SmartSantander, imperativo. O IPv6 nasce com esse direcionamento, uma vez que
na Espanha, tem transformado a cidade de Santander num o novo endereçamento de 128 bits permite a identificação de 79
laboratório de pesquisas a céu aberto, trazendo benefícios octilhões de vezes mais endereços que o IPv4, ou seja, mais de
80
reais tanto para pesquisadores por meio de projetos-piloto, 56 octilhões de endereços por habitante no planeta (6 bilhões).
quanto para seus cidadãos com a coleta e disponibilização de
Como resultado do número de objetos que poderão estar
informações sobre tráfego, vagas em estacionamentos, locais
conectados coletando e processando informações, surge a
para carga e descarga de suprimentos, temperatura, humidade
necessidade de armazenamento. As informações coletadas
ou poluição sonora.
poderão ser muito voláteis, exigindo que os próprios dispositivos
Na medicina já há pesquisa sobre a monitoração de pacientes as armazenem, ou com vida longa, de acordo, por exemplo,
de Alzheimer ou diabetes através da Internet das Coisas. Com com a necessidade da aplicação ou de legislações. Nesse
sensores implantados diretamente em seus corpos, esses pacientes cenário a computação em nuvem e o Big Data terão lugar de
poderão, num futuro próximo, enviar informações para aplicativos destaque para absorver a necessidade de processamento
que prescreverão, de forma mais eficiente e assertiva, drogas ubíquo e geração de informações para aproveitamento humano.
que os atendam individualmente, de acordo com o diagnóstico
Os próximos anos serão decisivos para uma convergência em
recebido. No caso do mal de Alzheimer, os esforços são para
termos de pesquisa e conceituação da Internet das Coisas, para
que os pacientes também levem uma vida mais independente
que um mundo interconectado através de dispositivos permita
em termos de mobilidade com monitoração geográfica.
uma integração global, se não com o mesmo padrão, ao menos
Em relação a aplicações comerciais, o ramo de seguros será com mecanismos que possibilitem a troca de informações com
um dos mais afetados, uma vez que a medição dos hábitos custos que suportem um planeta mais inteligente.
individuais dos segurados poderá levar a uma precificação
Para saber mais:
personalizada do seguro. Além disso, as seguradoras poderão
http://www.ipv6.br
mitigar o risco individual ao sugerir a cada segurado uma série
http://www.iot-i.eu/public/news/inspiring-the-internet-of-things-a-comic-book
de informações que o protejam de eventuais sinistros, como
evitar regiões de maior probabilidade de roubo de automóveis
ou vigilância residencial à distância por meio de sensores de
movimento semi-invisíveis conectados à Internet.

Technology Leadership Council Brazil


Traga seu dispositivo móvel
Sergio Varga

Você já deve ter ouvido falar ou lido a respeito do termo BYOD Além disso, devem elaborar novas aplicações que integrem
(Bring Your Own Device), não é? Se ainda não, isso está todas essas tecnologias, sejam elas aplicações internas ou
relacionado à explosão da quantidade de dispositivos móveis externas à empresa.
pessoais que os funcionários trazem para as empresas e a
Do ponto de vista de gerenciamento desses dispositivos já
necessidade delas lidarem com estes equipamentos dentro
existem soluções que, embora ainda embrionárias, consideram
do ambiente empresarial.
a integração das três tecnologias.
Entendem-se por dispositivos móveis os Smartphones, telefones
Verificamos alguns desafios que as empresas têm hoje em dia,
celulares, PDAs, Tablets, entre outros.
relacionados aos dispositivos móveis, que ainda não estão
Além da liberação de uso dos dispositivos móveis, é necessário totalmente solucionados. Muitos outros desafios ainda estão
criar ou alterar as aplicações existentes para suportar esse por vir! Novos dispositivos móveis já estão sendo pesquisados.
novo tipo de dispositivo. A maioria das aplicações utilizadas Por exemplo, o projeto SixthSense, no qual dispositivos
nas empresas foi desenvolvida para ser acessada por meio de ajustados ao corpo humano conseguem interagir com o meio-
computadores pessoais ou terminais fixos. O desenvolvimento ambiente. Existem muitas oportunidades de aplicações nas mais
de aplicações direcionadas para dispositivos móveis requer diversas áreas do meio empresarial, como em e-commerce,
um cuidado maior com a segurança, mídia eletrônica e qualquer outra que
o volume de dados trafegado, a possibilite interação entre as pessoas,
disponibilidade e compatibilidade especialmente em social business.
das aplicações.
Outro exemplo de dispositivo que as
Segundo Cezar Taurion, gerente de empresas precisarão gerenciar e suportar
novas tecnologias da IBM, esse é um são os dispositivos que leem ondas
fenômeno que as empresas não têm cerebrais e executam determinadas
como ignorar, mas em vez disso, tratar tarefas cotidianas. Pode parecer um 81
de frente e definir políticas de uso de pouco futurista, mas na área acadêmica,
modo que não comprometam o seu especialmente na medicina, já existem
negócio. Em seu artigo publicado no imasters, entre os pontos pesquisas nesse campo, tais como descrito no theguardian.
levantados por ele estão o custo, suporte técnico, segurança É uma questão de tempo elas chegarem nas empresas.
e restrições legais.
Como vimos, os dispositivos móveis vieram para ficar e cabe
Uma alternativa para minimizar esses pontos é o conceito do às empresas, sejam elas consumidoras ou provedoras de
Inverse-BYOD, que significa a empresa fornecer aos funcionários tecnologias, a responsabilidade de gerenciá-los e desenvolverem
os dispositivos móveis em vez de aceitar o uso de dispositivos novos produtos e modelos de negócio. É uma área muito dinâmica
pessoais, embora não resolva todos os impactos causados visto que a explosão no uso de smartphones móveis, catalisada
por eles. Para agravar ainda mais, temos outras duas novas pelo iphone, tem menos de cinco anos.
tecnologias como cloud computing e social business, que
Quem poderá adivinhar o que acontecerá nos próximos cinco?
também trazem desafios adicionais.
Para saber mais:
Considerando essas outras duas novas tecnologias, verificamos
https://ibm.biz/BdxvQT
que agora os desenvolvedores de aplicações também devem
https://ibm.biz/BdxvQw
se preocupar com a localização dos dados, itens de segurança
https://ibm.biz/BdxvQQ
adicionais e compartilhamento de dados entre mídias sociais.
https://ibm.biz/BdxvQ9

Technology Leadership Council Brazil


O céu é o limite para a automação inteligente
Moacyr Mello

Aprendizagem de máquina é uma disciplina da Inteligência O problema maior está em caracterizar adequadamente os padrões
Artificial que lida com a identificação de padrões que podem de complexidade que aparecem no texto. Apesar dessa ideia ser
ser tratados estatisticamente. Por outro lado, o Processamento generalizável para outras técnicas de especificação de requisitos,
de Linguagem Natural, que está muito em voga após o sucesso em se tratando de casos de uso, a tarefa é mais fácil porque
do Watson no Jeopardy!, é outra disciplina de Inteligência essa técnica possui uma pequena gramática para sua escrita.
Artificial que, auxiliado pela Linguística, aplica a identificação
Então pontuamos cada elemento de gramática por meio
de padrões na linguagem escrita de vários tipos de textos. Em
de palavras muito frequentes, e utilizamos os conceitos de
TI (Tecnologia da Informação), poderíamos usar esses recursos
similaridade e afinidade de Karov [“Similarity-based Word Sense
para aplicá-los, por exemplo, numa especificação de software,
Disambiguation”, Association for Computational Linguistics,
de procedimentos para manutenção e suporte de servidores de
1998, vol. 24, No 1, 20 pgs.] e Hashimoto [Dynamics of Internal
datacenter ou numa proposta comercial. Enfim, em vários tipos
and Global Structure through Linguistic Interactions, MABS ‘98,
de documentos que possuam padrões e algumas regras de
LNAI 1534, pp. 124-139, 1998.].
formação. A associação desses elementos possibilita a proposta
de uma automação mais inteligente em TI. Associado com essa pontuação utilizamos
pesos, fornecidos por um dicionário de
Algoritmos de aprendizado de máquina
domínios, que foi construído durante o
podem, por exemplo, inferir os resultados de
processo de aprendizagem a partir de
equações de sistemas complexos que são
um vocabulário inicial. A finalidade desse
difíceis de se formular matematicamente.
dicionário é armazenar o conhecimento
Como boa parte do que fazemos em TI
estruturado, já adquirido anteriormente,
é escrever, definir e descrever, por que
sobre o domínio e o tipo de sistema que
não utilizar essas técnicas para introduzir
comumente o representa. A rede neural por
automação inteligente no nosso conjunto de
sua vez irá lidar com o conhecimento não
82 ferramentas de desenvolvimento? Tarefas
estruturado, conhecimento a ser adquirido
como estimativas e planejamento poderiam
durante o treinamento e armazenado na
em parte ser automatizadas. Ganharíamos
memória da rede.
em padronização e rapidez. Isso parece impossível?
Podemos dizer que, assim como uma pessoa que lê o texto e
A ideia por trás da patente “Effort Estimation Using Text Analysis”
avalia o esforço de acordo com sua própria experiência, formando
é justamente utilizar esses recursos para estimar o esforço de
uma impressão de complexidade que o texto lhe causa, também
implementação para especificações de software que usem
a RNA irá avaliar a pontuação por meio da memória, do volume,
a técnica de casos de uso para captura de requisitos. É uma
da dificuldade de leitura, dos termos complexos ou usuais e
abordagem estatística e tem como premissa que a automação,
dos termos associados a um domínio de aplicação complexo.
a rapidez e a capacidade de exploração rápida de cenários, são
Esses são exemplos das variáveis que caracterizam os atributos
vantagens mais importantes que qualquer precisão milimétrica
memorizáveis da rede neural na patente mencionada.
da estimativa obtida por outros métodos.
Produtos para especificação de requisitos de software ou
Para implementar um software assim usamos uma rede neural
de planejamento de projetos poderiam se beneficiar de uma
artificial (RNA), que é um modelo de processamento computacional
automação como essa, pois sempre são acompanhados de
que se inspira no sistema nervoso dos seres vivos. Ele utiliza vários
algum tipo de estimativa de esforço.
neurônios artificiais associados em rede para imitar o modelo
biológico. A importante característica da RNA é a capacidade Para saber mais:
de adquirir informação ou em outras palavras aprender. TLC-BR Mini-Paper #091 (http://ibm.co/184qJ3S)

US-PTO Patent #US8311961 (http://1.usa.gov/12uVbOs)


A rede é “ensinada” a observar padrões no texto a partir de
http://en.wikipedia.org/wiki/Machine_learning
exemplos conhecidos e associá-los ao custo de implementação.
Esse custo pode ser expresso em homens-hora ou por outra
pontuação genérica. Em seguida a rede pode inferir o valor
dos demais casos.

Technology Leadership Council Brazil


Inteligência em segurança, uma nova arma contra o cyber crime
Alisson Lara Resende de Campos

Uma das principais armas, para combater essa ameaça pungente


é conhecida como “Security Intelligence”, que teve origem nas
soluções de SIEM (Security Information and Event Management),
que surgiram para realizar a coleta e correlação de eventos
em registros de equipamentos de tecnologia, mas precisaram
evoluir para atender a nova realidade em que vivemos.

As ferramentas de Security Intelligence são projetadas para


analisar, normalizar e correlacionar grandes volumes de dados
de aplicações, sistemas operacionais, ferramentas de segurança,
fluxo de redes, entre outras. Elas analisam o tráfego crítico
na infraestrutura e aprendem o comportamento esperado, de
maneira a detectar anomalias. Dessa forma as ameaças podem
Nos últimos anos temos nos deparado com outro tipo de ser descobertas mesmo antes de existirem vacinas ou correções
guerra, não mais com armas de fogo convencionais, químicas, sistêmicas contra elas. Assim é possível identificar, de maneira
biológicas ou nucleares, e sim com armas virtuais, conhecida proativa, as ameaças e ações ilícitas no momento ou mesmo
como guerra cibernética. antes da sua ocorrência.

Com a disseminação da Internet, conectando tudo e todos, temos Enquanto escrevo este artigo, uma nova tendência está surgindo:
hoje uma situação sem precedentes no que tange ao acesso a integração entre soluções de Big Data e de Security Intelligence.
a informações sensíveis de organizações ou ultrassecretas de A troca de dados entre essas soluções possibilitará a melhoria da
governos ao redor do mundo. O acesso a essas informações análise preditiva e a previsão dos riscos relacionados as empresas
deixou de ser simples jogos de hackers, que competiam entre e governos. Essa tarefa era quase impossível de ser realizada
si para ver quem quebrava primeiro um determinado servidor até então, devido ao alto volume de dados não estruturados,
83
web, para se tornar uma atividade orquestrada por grandes tais como emails, mensagens instantâneas e redes sociais.
corporações ou governos, com o objetivo de espionagem
A análise dos dados, inclusive a comportamental e sentimental,
industrial ou armas de destruição em massa.
juntamente com a capacidade de correlacionar um alto volume de
Nessa guerra cibernética são utilizadas novas técnicas de dados e a interoperabilidade das ferramentas de TI vêm sendo a
exploração de sistemas, ou APT (Advanced Persistent Threat), resposta dos good guys para combater as ameaças cibernéticas
como também são conhecidas. Essas técnicas utilizam, de emergentes, com suas novas técnicas de exploração de falhas,
forma conjunta e orquestrada, diferentes tipos de códigos com- espionagem, fraudes e roubos de informações sensíveis das
putacionais maliciosos, conhecidos como worms, vírus e rootktis corporações e entidades governamentais. Os bad guys não
ou técnicas de exploração, como phishing, engenharia social dormem no ponto, e você não pode dormir também!
entre outras. Um dos casos mais famosos foi o worm “Stuxnet”,
Para saber mais:
que foi projetado para atacar as instalações industriais, como
http://en.wikipedia.org/wiki/Advanced_persistent_threat
as de enriquecimento de urânio do Irã, que teve centrífugas
http://www-03.ibm.com/security/solution/intelligence-big-data/
comprometidas em 2010. E esse é apenas um incidente entre
http://blog.q1labs.com/2011/07/28/defining-security-intelligence/
outros existentes e outros que ainda surgirão.
http://www.site.com/link3

Por essa razão os antivírus e firewalls tradicionais já não são


suficientes para proteger as organizações, resultando assim
no surgimento de um conjunto sofisticado de contramedidas,
necessárias ao combate desse tipo de ameaça.

Technology Leadership Council Brazil


Tecnologia Transformando Cidades Inteligentes
Dan Lopes Carvalho

Uma das questões que tem atraído grande atenção no âmbito Interconexão é a capacidade que o sistema de uma cidade tem
da gestão pública é prover serviços e infraestrutura de qualidade para transmitir e receber os diversos tipos de dados observados
para atender as necessidades do sistema urbano moderno, que para então interagir com os devidos atores permitindo eficiência
exige dinamismo e flexibilidade para uma população urbana, da governança do ecossistema. Um exemplo seria associar
que cresce significativamente e com o agravante da distribuição eventos de trânsito que podem gerar riscos ou impactos em
desordenada no cenário brasileiro. Nesse contexto o conceito outro sistema urbano, como a segurança pública.
de cidades inteligentes torna-se mais importante.
Inteligência é a capacidade do sistema de interpretar e gerar
Em estudo recente, realizado por um grupo de universidades da respostas rápidas e automatizadas para melhoria do serviço
União Europeia formulou a primeira definição acadêmica para público como um todo e de maneira integrada. O método mais
conceituar cidades inteligentes: “uma cidade é dita inteligente quando eficiente para medir um sistema inteligente de uma cidade é
investimentos em capital humano e social em conjunção com uma a capacidade de interagir com o cidadão e gerar mudanças
infraestrutura tradicional (transporte) e de rápidas e eficientes no sistema.
comunicação moderna (TIC – Tecnologia
A visão de que o sistema urbano deve
da Informação e Comunicação) ali-
ser integrado e deve ter capacidade
mentam um crescimento econômico
de fornecer sinergia entre os diversos
sustentável e uma elevada qualidade
recursos provoca uma mudança no
de vida, com uma administração eficiente
atual modelo de gestão das cidades,
dos recursos naturais, através de uma
que deve apresentar uma estratégia
governança colaborativa”. Dentro dessa
de compartilhamento entre os órgãos
definição é possível interpretar que
do serviço público, tais como
cidade inteligente tem diversos fatores,
segurança, transporte, mobilidade,
tais como desenvolvimento humano,
energia, água, entre outros, por
84 meio ambiente, transporte, segurança,
meio de um processo de informação
economia, redes sociais e outros.
integrada, encaixando-se em um
Os governantes, em seu planejamento ambiente intermunicípio, interestado,
estratégico para construir um sistema nacional e até mesmo internacional.
urbano moderno e aderente às
As cidades iniciam, então, uma
constantes mudanças, deparam-se com uma infinidade de
longa e contínua caminhada para atender esse novo perfil
adversidades, que vão desde a uma precária infraestrutura a
de gestão urbana, onde a governança deve ser compartilhada
um imenso fluxo de informação que precisam ser administrados.
com uma visão integrada, de modo a proporcionar respostas
A tecnologia poderia então alavancar os fatores de sucesso
efetivas e planejamento de políticas públicas mais céleres
que transformam um sistema urbano em inteligente.
e eficazes, que por sua vez proporcionam ao cidadão uma
A transformação de uma cidade com base na tecnologia da melhor qualidade de vida.
informação deve se dar por meio de três pilares: instrumentação,
Nesse contexto, a transformação tecnológica é o alicerce para
interconexão e inteligência.
esse novo modelo de cidades inteligentes.
Instrumentação é a capacidade da cidade em capturar dados
Para saber mais:
em sua infraestrutura, ou seja, sensores que permitem observar e
http://www.smartcitiesineurope.com
absorver alterações de comportamento ou anomalia do ambiente,
http://www.ibm.com/smarterplanet/br/cities
tais como monitores de movimentação e aglomeração de pessoas
em pontos estratégicos.

Technology Leadership Council Brazil


Crowdsourcing: o poder da multidão
Carlos Eduardo dos Santos Oliveira

Juntos somos mais fortes. Você certamente já ouviu isso muitas Em TI, por exemplo, isso é visto como um grande aliado, dada
vezes. Pois benvindo ao mundo do crowdsourcing. O termo foi a infinidade de cenários de teste que uma multidão pode
criado pelo jornalista Jeff Howe e publicado em seu artigo The proporcionar e que não poderiam ser simulados dentro de
Rise of Crowdsourcing, na revista Wired, em junho de 2006. uma empresa. Entretanto, existem algumas ressalvas quanto
a segurança e privacidade de informações, principalmente
O conceito de reunir pessoas com diferentes habilidades
quando o objeto do teste trata de inovação ou define um
em prol de um objetivo comum é muito mais antigo do que o
posicionamento estratégico.
termo cunhado por Howe. Um bom exemplo e talvez o mais
antigo e famoso no Brasil é o do Movimento Software Livre, que Dados o poder, alcance, cenários e benefícios que o crowdtesting
tem entre seus objetivos difundir a cultura open source. Esse proporciona, muitas empresas têm adotado esse conceito
movimento nasceu em 1985, liderado por Richard Stallman, e reduzido o tempo do ciclo de testes de seus produtos de
com uma proposta muito simples: um ciclo onde cada um semanas para horas. Outra vantagem é a enorme diversidade
soma o seu conhecimento ao do grupo, de sistemas operacionais, dispositivos
desenvolvendo software com código e configurações que esse modelo de
aberto. Na prática, se você utiliza teste pode abranger, algo muito difícil
um software livre, pode melhorá-lo e de se alcançar dentro de um ambiente
devolvê-lo ao grupo para que possa ser de TI corporativa.
utilizado por outros, reiniciando o ciclo.
Um exemplo de aplicação do conceito
Nos últimos anos o crowdsourcing de crowdtesting são as comunidades de
tem ganhado força principalmente usuários Linux, onde cada usuário obtém
em ambientes de TI, quando pas- a sua cópia, instala e reporta bugs ao
sou do anonimato à fama devido ao fornecedor ou grupo de desenvolvedores
surgimento das derivações crowd- para posterior correção.
85
funding e crowdtesting.
Nesse modelo, existem duas pos-
O conceito base do crowdfunding sibilidades de recompensa: financeira
é capitalizar projetos de qualquer ou reputação. Recomendo a leitura do
natureza por meio de apoio de caráter Mini Paper na pág. 71, de Wilson E. Cruz,
financeiro e tem como principal ativista no Brasil o projeto Catarse, no qual é abordado o tema reputação de forma mais profunda.
uma plataforma de financiamento coletivo. Nele, qualquer pessoa Se o objetivo for uma recompensa financeira, já existem alguns
pode apoiar financeiramente qualquer um dos muitos projetos serviços de outsourcing de testes, como o Crowdtest, que contrata
cadastrados no site do Catarse. mão-de-obra especializada para trabalhos regulares.

Recentemente a comunidade Transparência Hacker angariou Nos últimos anos empresas globais aderiram ao crowdsourcing,
fundos suficientes, com apoio recebido via Catarse, para o projeto criando programas próprios, visando algum tipo de vantagem
Ônibus Hacker, que visou a aquisição, reforma e modernização competitiva ou inovação. Entre estas encontram-se gigantes
de um ônibus, com o objetivo de difundir a “cultura hacker” em como Pepsico, P&G, Ford, Dell, Starbucks e Fiat entre outras.
todo o país. Com o apoio dessas empresas o crowdsourcing vem ganhando
espaço na mídia e nas corporações, crescendo a passos largos.
Já o crowdtesting utiliza o conceito de multidão aplicado na área
de teste de qualquer natureza ou área específica do conhecimento. Para saber mais:
Esse conceito é largamente utilizado por grandes empresas de http://crowdsourcing.typepad.com
tecnologia como Microsoft e Google, por meio de seus programas Crowd Testing – Applicability and Benefits
de testes de aplicativos em versões beta. http://blog.ideiasnamesa.com.br/tag/crowdsourcing/

Technology Leadership Council Brazil


TOGAF – O que é e por quê?
Roger Faleiro Torres

O TOGAF (The Open Group Architecture Framework) é um Por que a arquitetura corporativa e o TOGAF devem ser
modelo conceitual de arquitetura corporativa concebido em considerados assuntos estratégicos pelas empresas? A
1995 pelo The Open Group Architecture Forum, cujo objetivo é arquitetura corporativa ajuda a identificar lacunas entre o estado
fornecer uma abordagem global para o desenho, o planejamento, atual e o estado desejado pela empresa, fornecendo um plano
a implementação e a governança de arquiteturas, estabelecendo para que a organização alcance seus objetivos, descrevendo-a
assim uma linguagem comum de comunicação entre os arquitetos. em múltiplos níveis de amplitude e profundidade. O TOGAF, por
sua vez, acelera o ciclo de desenvolvimento dessa arquitetura,
Atualmente na versão 9.1, publicada em Dezembro de 2011, o
fornecendo respostas para as perguntas o que, quem, quando,
TOGAF se baseia em um processo iterativo, reutilizável, cíclico
como e por quê.
e suportado pelas melhores práticas de modelagem envolvidas
nas atividades fim ou meio de uma organização, compreendendo Para saber mais:
quatro tipos de arquitetura que são comumente aceitas como http://www.opengroup.org/togaf/
subconjuntos de uma arquitetura corporativa, a saber: negócios, http://pt.wikipedia.org/wiki/TOGAF
dados, aplicações e tecnologia. Enterprise Continuum:

http://pubs.opengroup.org/architecture/togaf9-doc/arch/chap39.html
O conteúdo do TOGAF está estruturado em sete partes:

1. Introdução, que compreende conceitos básicos sobre


arquitetura corporativa, o próprio TOGAF, terminologia e
expressões adotadas;

2. O método para o desenvolvimento de arquiteturas


(ADM – Architecture Development Method);

3. Técnicas e diretrizes associadas ao ADM;

86 4. Estruturas para conteúdos de arquitetura;

5. Ferramentas e o Enterprise Continuum;

6. Modelos de referência;

7. Framework das capacidades de arquitetura.

De forma resumida, o ADM é um método para o desenvolvimento


e manutenção de arquiteturas corporativas. O framework das
capacidades de arquitetura contempla os atores e papéis
que operarão o ADM, o qual é suportado por técnicas e
diretrizes, que produzirão o conteúdo a ser armazenado em
um repositório (estruturas para conteúdos de arquitetura),
sendo esse conteúdo classificado de acordo com o Enterprise
Continuum. O repositório é inicialmente populado com modelos
de referência, tais como o TRM (Technical Reference Model)
e o III-RM (Integrated Information Infrastructure Reference
Model), que fazem parte do TOGAF.

O ADM, ilustrado na figura, é considerado o principal componente


do TOGAF, compreendendo diversas fases que interagem entre
si, por meio dos domínios de arquitetura, para garantir que todos
os requisitos de negócio sejam devidamente atendidos. Uma
vantagem para a adoção do ADM é que ele pode ser adaptado
à terminologia adotada pela empresa.

Technology Leadership Council Brazil


Revele o cliente que está por trás dos dados
Mônica Szwarcwald Tyszler

Diariamente somos bombardeados por informações que chegam Uma considerável parte desse universo de dados precisa ser
de todos os lados, por e-mail, redes sociais, imprensa e outdoors. transformada antes de ser usada para uma análise efetiva. A
Segundo estudo divulgado pela IDC, são gerados cerca de 15 ciência dessa análise está na aplicação de conceitos estatísticos,
petabytes de dados todos os dias. A expectativa da consultoria é matemáticos ou mesmo econométricos, como inferências,
que esse fluxo chegará a 8 zettabytes até 2015. Essa quantidade correlações, regressões lineares e logísticas, para revelação
gigante de informações torna difícil separar o que é relevante. de informações antes escondidas. O estudo do perfil de um
Esse também é um problema para as empresas que tentam consumidor é possível graças às aplicações de métodos científicos
conhecer o perfil dos seus clientes, visando oferecer produtos e que viabilizam a segmentação de clientes, a modelagem de
87
serviços personalizados de acordo com as suas necessidades. ofertas e o desenho de programas de fidelidade personalizados.

Um primeiro passo rumo à modelagem do comportamento dos A partir de melhores previsões e decisões mais inteligentes, os
consumidores é compreender o nível das informações existentes varejistas, os bancos, as corretoras de seguros, por exemplos,
na companhia e utilizá-las da maneira correta. É fundamental podem gerar maiores volumes de vendas criando, em tempo
saber como integrar o negócio às características individuais real, promoções e ofertas.
dos clientes. Os dados brutos levam a uma visão limitada de
Acompanhando essa tendência, as empresas provedoras de
quem é e o que quer o seu consumidor.
tecnologia já estão prontas para prestar esses serviços para todos
Para um resultado efetivo, as empresas devem procurar consolidar os setores da economia, oferecendo não apenas os produtos,
em um único ponto a visão 360 graus. Visando entender melhor mas também especialistas capazes de aplicar a análise de
as vontades dos clientes surgiram ferramentas para coleta, dados nas diversas indústrias, nos mais variados cenários.
gerenciamento e análise de dados. O termo customer analytics,
As tecnologias de análise de dados permitem identificar o
muito em voga pelas grandes companhias, é a síntese do esforço
cliente quando entrar em uma loja física ou visitar uma loja virtual,
em conhecer o comportamento do consumidor e saber criar
associando-o ao seu histórico de consumo, hábitos, preferências
modelos para estreitar esse relacionamento.
e situação socioeconômica. Assim, será possível criar ofertas,
Informações de clientes em sistemas como ERP, CRM, cadastros propostas de produtos e serviços aderentes às necessidades
e dados obtidos de fontes externas como agências de marketing dos consumidores, proporcionando uma experiência de interação
ou empresas de pesquisa de mercado, devem ser consolidados única e personalizada. O customer analytics é o caminho para
e analisados a fim de traduzir em números o seu comportamento. as companhias explorarem uma nova fronteira competitiva.
O processo de obtenção desses dados é gradual e evolutivo,
Para saber mais:
e leva a um aprendizado constante de quais informações são
http://www.wharton.upenn.edu/wcai/
valiosas e quais os próximos caminhos a seguir.
http://www.customeranalyticsevent.com/

http://www-01.ibm.com/software/analytics/rte/an/customer-analytics/

Technology Leadership Council Brazil


Singularidade: Você está pronto para viver para sempre?
Cesar Nascimento

Pare para imaginar como seria sua vida se a humanidade fosse pois será possível programar nanobots para a erradicação de
uma raça imortal. Ou melhor, pense nos impactos caso se torne qualquer moléstia. Imagine alguns exemplos: nanobots na sua
imortal. As consequências em nossos sistemas políticos e corrente sanguínea que removem o excedente de gordura ou
econômicos seriam, sem dúvida, grandes e profundas. Deixando açúcar, que podem fazer correções na córnea, e que eliminam
os aspectos humanos de lado, existem, de fato, possibilidades vírus, bactérias ou parasitas.
reais apoiadas por grandes cientistas de que a humanidade
A robótica e a evolução exponencial da computação fornecem
alcance a imortalidade em breve.
a segunda parte da equação da imortalidade.
Segundo Raymond Kurzweil , pesquisador da área de Inteligência
[1]
São necessários cerca de 10 quatrilhões (1016) de cálculos
Artificial, é possível que a imortalidade aconteça ainda nesse
por segundo (cps) para fornecer um equivalente funcional
século[2]. A imortalidade da
ao cérebro humano. Estima-
raça humana faz parte de
se que, em 2020, essa
várias previsões que Kurzweil
capacidade computacional
fez e chamou de Singularidade
custará cerca de mil dólares
– uma transformação profunda
e, que em 2030, esses mesmos
nas capacidades humanas –
mil dólares em poder de
que segundo o pesquisador
processamento serão cerca
deve acontecer em 2045[3].
de mil vezes mais poderosos
As previsões de Kurzweil do que um cérebro humano
têm como base modelos (figura). Hoje, existem modelos
matemáticos que propõem matemáticos e simulações
uma evolução científica de uma dúzia de regiões do
e tecnológica em escala cérebro. Segundo pesquisas
88
exponencial. Para se ter atuais, já é possível simular
uma ideia, seus modelos de cerca de 10.000 neurônios
mostram que as duas últimas corticais[5], incluindo dezenas
décadas do século XX foram de milhões de conexões.
equivalentes a todo progresso
Isso significa que se tivermos os meios de hardware, software
dos oitenta anos anteriores. Nós vamos fazer mais vinte anos
e controle sobre nossos corpos, poderemos literalmente fazer
de progresso em apenas 14 anos (em 2014) e depois fazer o
uma réplica do nosso cérebro.
mesmo novamente em apenas sete anos. Dentro da escala
exponencial proposta por Kurzweil, os 14 primeiros anos do Dessa maneira, tudo se resume a uma frase usada pelo próprio
século XXI seriam superior ao progresso cientifico alcançado Kurzweil: “viva o bastante para viver para sempre”[6]. Viva o
durante todo o século anterior. Para expressar isso de outra suficiente para tirar proveito das melhorias que a genética e
forma, não teremos cem anos de avanço tecnológico no século nanotecnologia trarão, assim você poderá viver ainda mais,
XXI e sim um avanço cerca de 1.000 vezes maior do que o que quem sabe até o ponto de inflexão a partir do qual poderá viver
foi alcançado no século XX. [3] indefinidamente.

Ainda segundo Kurzweil, a imortalidade poderá ser atingida por Para saber mais:
meio de dois fatores combinados: GNR (Genetics, Nanotechnology,
[1]
https://ibm.biz/Bdx3Ar

Robotics) e progresso computacional exponencial previsto pela


[2]
https://ibm.biz/Bdx3AY

Lei de Moore[4].
[3]
https://ibm.biz/Bdx3AZ
[4]
https://ibm.biz/Bdx3Aw
A GNR vai contribuir para melhorar a qualidade de vida dos seres [5]
https://ibm.biz/Bdx3uT
humanos, aumentando a expectativa de vida em muitos anos. [6]
https://ibm.biz/Bdx3ub
A combinação de robótica e nanotecnologia vai nos ajudar na
criação de tratamentos efetivos, direcionados e menos invasivos

Technology Leadership Council Brazil


Agora eu posso twittar
Sergio Varga

A velocidade com Outro ponto é a velocidade que a informação chega ao consumidor.


que novos serviços e No momento em que lê esse artigo, você pode receber no twitter
produtos aparecem na uma promoção relâmpago de TV que está sendo realizada por
Internet e se disseminam uma grande rede de eletrodomésticos com descontos especiais.
é impressionante. É o caso Isso não era possível há poucos anos atrás e as empresas agora
do facebook, do twitter e estão cada vez mais utilizando o social business.
do youtube, ferramentas
A utilização de mídias sociais pelas empresas para divulgação de
inicialmente concebidas
produtos e pelos funcionários para disseminação de experiências,
para o compartilhamento
troca de opiniões e informações, tem sido objeto de preocupação
de informação entre pes-
das empresas. Essa mesma preocupação ocorreu no passado
soas, que se tornaram
com o advento do e-mail na década de 80.
padrões de mídias sociais.
Por outro lado, muitas empresas proibiam o acesso a essas O ponto mais importante é definir os critérios de como se portar
ferramentas no meio empresarial, sob o pretexto de não estarem para o mundo externo, ou seja, o que o funcionário postar nas
relacionadas com as atividades de negócio, sendo então mídias sociais tem que seguir algumas diretrizes do empregador,
consideradas uma distração para os funcionários. pois ele o está representando naquele momento. Outro ponto
é a criação de iniciativas como o uso de blogs para comentar
O que era considerado proibido, vem sendo encorajado pelas
produtos, tweets sobre eventos, facebooks empresariais e
próprias empresas. Mas, o que levou a essa mudança de posição?
vídeos promocionais no youtube. Essas iniciativas permitem
Vários motivos podem ser citados, dentre os quais, relacionamento,
que os funcionários participem e divulguem tais conteúdos
propaganda, formação de opinião, a frenética necessidade por
nas mídias sociais.
informação e a rapidez que ela atinge o consumidor.
As empresas também solicitam a seus funcionários que auxiliem
As empresas viram nessas mídias sociais novas oportunidades de
na resposta a comentários ou questões de consumidores 89
chegar aos seus consumidores, canais inovadores de marketing.
relacionadas com produtos ou serviços. As mídias sociais, que
Há muito tempo tem se observado que a propaganda boca-a-boca
estão sendo constantemente monitoradas, são canais importantes
é uma das melhores formas de conseguir novos consumidores
onde o consumidor consegue chegar às empresas.
e pesquisas recentes comprovam isso. As mídias sociais
simplesmente tornaram possível aumentar exponencialmente A maior dificuldade para o funcionário é conciliar a participação
esse tipo de propaganda. Os relacionamentos sociais também nas mídias sociais de caráter pessoal com o uso no âmbito
já não têm mais fronteiras. Ao entrar para uma comunidade ou empresarial, ou seja, o funcionário pode usar o twitter e o
associar-se a um amigo, as opiniões divulgadas na rede agora facebook para falar de assuntos da empresa e de assuntos
são “escutadas” instantaneamente e com maior abrangência, pessoais? Ou deve usar o facebook para uso pessoal e o twitter
pois os amigos do seu amigo também veem sua opinião. para uso profissional? Não existe uma regra e fica a cargo do
funcionário decidir sobre isso.
A mudança de posição das empresas está também relacionada
à percepção dos formadores de opinião, pessoas de referência e Bom, uma coisa é certa, agora eu posso twittar sem que meu
celebridades nas redes sociais. O poder ou atração que exercem chefe me olhe atravessado, não é? Vamos twittar então?
sobre as outras pessoas é muito grande, podendo se tornar Para saber mais:
grandes promotores ou “detonadores” de produtos ou serviços. http://bit.ly/15wuLf7

Além disso temos a busca incessante pela informação. Somos http://bit.ly/17t1jLS

movidos por conhecimento e curiosidade. Seja a informação


mais simples ou banal até a mais importante ou prioritária. E
essa busca também tem sido atendida com as mídias sociais.

Technology Leadership Council Brazil


O novo consumidor
Ricardo Kubo

Tenho observado meus filhos e eles já não assistem televisão da ser uma alternativa a se explorar, para compensar as baixas
mesma forma que eu fazia. Hoje, eles veem o que querem, na hora margens de lucro do comércio eletrônico. E isso também vale
e quantas vezes quiserem, na Internet. Se eu já demandava um para a indústria, que já começa a criar iniciativas conjuntas e
atendimento personalizado, que tipo de consumidor serão eles? interdependentes no mundo real e virtual.

Esse novo cliente tem a expectativa de que o varejista o atenda Muitas marcas investem em lojas-conceito para gerar uma
de forma única e sem compromisso de fidelidade. Recentemente, experiência de compra personalizada ao explorar visão, olfato
vivi uma experiência memorável no interior de São Paulo, no e até emoções, com o propósito de fidelizar o consumidor,
qual o processo de compra funcionava com a antiga caderneta. levando também em conta os fatores relacionados à diferença
Recebi um atendimento personalizado, desde o cumprimento de gerações e suas respectivas propensões de compra.
caloroso até o pagamento “fiado” sem nenhuma burocracia. No
Com o aumento da escala, o atendimento personalizado acaba
entanto, ao voltar para a “cidade grande”, passo a valorizar a
por recorrer a soluções de tecnologia para melhorar a experiência
conveniência e outros atributos importantes como a velocidade de
do consumidor. Essas soluções podem ajudar a identificar,
compra e a entrega, fazendo com que eu prefira a compra online.
interagir e personalizar o atendimento aos novos consumidores.
Em uma experiência anterior, trabalhando em uma start-up de
Para munir essas soluções de informações relevantes, tecnologias
negócios na Internet, foi possível operarmos “no azul”, mesmo
como reconhecimento biométrico, plataformas de comércio
com o estouro da bolha da NASDAQ em 2001. A sustentação
eletrônico, campanhas digitais (aproveitando ou não as mídias
se deu através de uma empresa tradicional que ali ingressava
sociais) e sistemas de retaguarda, são todos grandes coletores
no mundo virtual, formando o que, no jargão da época, era
de dados que podem ser analisados para se entender o
conhecido como Bricks and Clicks.
comportamento do indivíduo em relação aos diversos pontos
Atualmente a competitividade no comércio eletrônico corrói de contato que uma marca disponibiliza.
valores como serviços e ambientação, oferecidos nas lojas
Ainda nesse contexto observamos a entrada de uma nova variável,
90 tradicionais. A recuperação desses valores, aproveitando as
a computação cognitiva, provável diferencial na capacidade de
sinergias com o mundo digital, é um dos maiores desafios
“digestão” dessa explosão de dados. Finalmente, há também o
enfrentados pelos grandes varejistas.
impacto da mobilidade, com dispositivos como smartphones
Em 2011, a TESCO, terceira maior varejista do mundo, alavancou servindo como canal de interação e deixando rastros digitais
as compras online a partir da utilização de gôndolas virtuais nos valiosíssimos, como a localização em tempo real. Esse canal dá
metrôs da Coréia. A Anthon Berg foi bem sucedida ao inaugurar ainda mais poder ao consumidor, que pode visitar fisicamente
suas lojas explorando o engajamento de seus consumidores uma loja ao mesmo tempo que compara preços de outras lojas
via mídia social. Essa sinergia do mundo real e virtual pode para negociar e até efetivar uma compra em um concorrente a
partir de seu smartphone. Isso gera impactos diretos no modelo
de negócios, precificação, promoções e níveis de serviços, que
muitas vezes apresentam diferenças entre canais digitais, lojas
físicas ou call-centers.

De fato, o consumidor está onipresente e as futuras gerações


serão cada vez mais instrumentadas, informadas e imediatistas.
Se notarmos como nossos pais faziam compras e como nós
fazemos hoje, notamos quantos hábitos novos já adotamos
em tão pouco tempo. Quem está preparado para atender esse
novo consumidor?

Para saber mais:


http://en.wikipedia.org/wiki/Bricks_and_clicks

https://www.youtube.com/watch?v=nJVoYsBym88

https://www.youtube.com/watch?v=_cNfX3tJonw

Technology Leadership Council Brazil


Transformando riscos em oportunidades de negócio
Alfredo C. Saad

O conceito de risco surgiu na transição da Um exemplo de aplicação desse conceito


Idade Média para a Moderna, ao longo pode ser visto em contratos de terceirização
dos séculos XVI e XVII. Até então, apesar de serviços de TI. Tipicamente, o cliente
do notável avanço já alcançado em outras contrata o provedor de serviços para operar
áreas do conhecimento humano, ninguém o ambiente de TI de sua organização com
ousava desafiar o desígnio dos deuses, que níveis de qualidade pré-definidos em
pareciam determinar os eventos futuros. Esse contrato, os quais garantem que eventuais
fato fazia com que os eventos observados falhas não impactarão significativamente
fossem simplesmente associados à boa ou os negócios do cliente.
má sorte. Uma arraigada visão fatalista impedia que sequer
Nesse cenário, é parte relevante da atividade do provedor de
fosse imaginada a possibilidade de ações que aumentassem a
serviços o continuado esforço para identificação e tratamento
probabilidade de ocorrência de eventos favoráveis ou diminuíssem
das vulnerabilidades no ambiente de TI operado e que possam
a probabilidade de ocorrência de eventos desfavoráveis.
vir a afetar as atividades do cliente.
Os ares inovadores trazidos pelo Renascimento fizeram com
Sabe-se que cultivar no cliente a percepção de que o provedor
que os pensadores da época desafiassem esse temor do futuro,
atua proativamente na identificação dos potenciais fatores de
levando-os a desenvolver e aperfeiçoar métodos quantitativos
riscos aos seus negócios aumenta significativamente a sua
que antecipavam variados cenários futuros em contraposição
predisposição em contratar novos serviços.
ao cenário único imposto pelo destino. Um dos primeiros marcos
foi a solução, por Pascal e Fermat, em 1654, acerca do enigma Mais ainda, o tratamento indicado para vulnerabilidades
da divisão de apostas de um jogo de azar. Surgiram então os identificadas, muitas vezes, requer a tomada de ações que se
primeiros fundamentos da Teoria das Probabilidades, básicos encontram fora do escopo de serviços contratado.
para o conceito de risco. Esse cenário caracteriza a quinta forma para reagir a um risco
91
A partir daí, a recém criada perspectiva fez surgir, ao longo do identificado: a geração de uma nova oportunidade de negócio,
século XVIII, inúmeras aplicações em distintas áreas, tais como que pode ser viabilizada pela ampliação do escopo dos serviços
cálculos de expectativa de vida das populações e até mesmo o contratados, com a finalidade de eliminar ou ao menos mitigar
aperfeiçoamento do cálculo de seguros para as viagens marítimas. fatores que colocam os negócios do cliente em risco.

A evolução permanente dos métodos quantitativos trouxe, já na O exercício permanente dessa conduta proativa do provedor
Idade Contemporânea, essas aplicações ao mundo corporativo. consolida, na percepção do cliente, a ideia de que o provedor
Textos escritos por Knight em 1921 (Risco, Incerteza e Lucro) e é capaz de gerar um valor agregado relevante, que é o de
Kolmogorov em 1933 (Fundamentos da Teoria das Probabilidades), assegurar que seus próprios negócios estão protegidos por uma
assim como a Teoria dos Jogos, elaborada por von Neumann efetiva gestão dos riscos de TI. Tal valor agregado extrapola
em 1926 são bases para a evolução contemporânea do tema. largamente os limites comerciais estritos do contrato firmado,
Dentre as áreas abordadas desde então, podem ser citadas as criando vínculos de confiança mútua valiosos para ambas as
decisões relativas à fusão e aquisição de empresas, as decisões partes e que poderão gerar ações de parceria em áreas não
de investimento e os estudos macro-econômicos. exploradas nem vislumbradas anteriormente.

A evolução da disciplina de gestão de riscos permitiu identificar Para saber mais:


quatro diferentes formas de reagir a um risco, a saber: aceitar, Six keys to effective reputational and IT Risk Management

transferir, mitigar ou evitar o risco. Há, entretanto, uma quinta The convergence of reputational risk and IT outsourcing

forma, inovadora, de reação: a de transformar o risco em uma Bernstein, Peter L. – Against the Gods: The Remarkable Story of Risk, John Wiley & Sons Inc, 1996

oportunidade de negócio.

Technology Leadership Council Brazil


QoS em redes de acesso em banda larga
Mariana Piquet Dias

A demanda por banda larga tem aumentado significativamente ser planejados de ponta a ponta na rede analisando todo o
devido a diversas aplicações que são transportadas sobre a caminho desde o usuário até o provedor do serviço. Também
Internet, tais como televisão (IPTV), voz (VoIP), vídeo sob demanda é necessário conhecer bem os requisitos de cada aplicação e
(VoD), vídeoconferência e jogos interativos. Nessas aplicações dos usuários. No entanto, o dinamismo do mercado mostra que
milhares de usuários competem pelos mesmos recursos da rede esses requisitos têm se transformado rapidamente com o tempo.
de acesso de banda larga, o que pode degradar o desempenho Portanto é necessário implementar soluções de monitoração e
dos serviços contratados. Quem nunca teve a experiência de análise de rede para identificar mudanças no comportamento
um vídeo interrompido por lentidão na rede ou ruídos excessivos do tráfego de maneira a ajustar o planejamento de QoS.
ao fazer chamadas de VoIP?
Algumas características e funções dessas soluções são
Por essa razão os provedores de banda larga precisam garantir importantes na gestão da experiência do usuário, como gráficos
níveis adequados de qualidade de serviço (QoS) na rede para de tráfego em tempo real, suporte para modelagem de tráfego
atender aos requisitos dos usuários e suas aplicações. Uma ou limitação de velocidade, bloqueio de sites e filtragem de
política adequada de QoS permitirá classificar e priorizar os conteúdo. Essas soluções permitem visualizar e analisar o
tráfegos de acordo com seus requisitos. tráfego, suportando a operadora na criação de políticas de
QoS mais eficazes.
Esse cenário traz um grande desafio para as operadoras
de telecomunicações, pois a política de QoS precisa ser Com esse ciclo de monitoração e planejamento é possível ter
implantada de ponta a ponta sobre redes complexas que um plano efetivo de QoS que habilita as redes de banda larga
usam várias tecnologias de acesso em banda larga como a suportar os serviços atuais e futuros. Isso traz uma grande
ADSL (uso da rede de telefonia), DOCSIS (uso da TV a cabo) oportunidade para soluções que incluem serviços de monitoração
e GPON (rede de fibra óptica), além das tecnologias móveis e ferramentas analíticas que levarão as operadoras a investir
Wi-Fi e 3G/4G. em redes mais eficientes e na oferta de acesso de banda larga
de melhor qualidade.
92 Para criar essa política é necessário um bom entendimento
sobre os principais parâmetros de QoS: disponibilidade da Para saber mais:
rede, largura de banda, latência e jitter. http://tinyurl.com/lmmfy6d

http://en.wikipedia.org/wiki/Quality_of_service
A disponibilidade tem sua importância porque interrupções
http://en.wikipedia.org/wiki/Network_traffic_measurement
de rede, mesmo de curta duração, podem comprometer o
https://ibm.biz/BdDGFH
desempenho das aplicações.

Largura de banda é outro parâmetro importante que afeta


o planejamento de QoS. Muitas redes operam sem controle
da largura de banda, permitindo que certas aplicações
superutilizem o meio e comprometam o fornecimento de banda
para outros serviços.

A latência, ou atraso da rede, é o tempo que um pacote de dados


demora para transitar entre a origem e o destino. O jitter é a
variação desse atraso. Quando a latência ou o jitter são muito
grandes, diversos danos podem ser causados a aplicações de
tempo real como voz e vídeo.

Na elaboração de uma política de QoS, esses parâmetros devem

Technology Leadership Council Brazil


As máquinas sentem?
Samir Nassif Palma

Alguns filmes futuristas ou de ficção científica nos mostram Uma alternativa que vem sendo utilizada atualmente é a
máquinas que aprendem e assumem o comando do mundo. interpretação de comentários em redes sociais, ou em websites,
Ou ainda, robôs que tem sentimentos, se consideram humanos com o uso de técnicas de mineração de textos (ou text mining).
e desejam assim se tornar um de nós. Afinal, será possível Entretanto, a análise de sentimentos em textos é uma tarefa
que máquinas tenham sentimentos? Poderiam tomar decisões? extremamente desafiadora. Expressões com gírias, vícios
Nossos avós com certeza responderiam que não, mas a realidade de linguagem, objetos ocultos, abreviações e o contexto são
nos apresenta algo diferente. exemplos de dificuldades. A boa notícia é que muita coisa
já é possível. O processo cognitivo é similar ao utilizado na
De forma similar às pessoas, as máquinas possuem sistemas
educação de crianças. Requer muita orientação, método
internos funcionais responsáveis pela execução de suas ações
(estrutura e processo) e prática (treinamento e experiência).
e tarefas. No entanto, esses sistemas são criados, codificados,
Dessa forma a máquina aprende a coletar, interpretar e até
testados e implementados por pessoas. As funções dos sistemas,
sentir o que está oculto.
definidas de acordo com seu propósito, visam atender a um
objetivo final para o qual a máquina foi projetada. Por ser uma tarefa de tradução da linguagem humana para a
de máquina, a análise léxica para julgamento de sentimento
Já vimos algumas máquinas alcançarem objetivos antes
é totalmente orientada ao contexto e ao objeto que se deseja
impensáveis, como derrotar um campeão de xadrez, ou mesmo
avaliar. A técnica de análise de um produto, por exemplo,
vencer um concurso de perguntas e respostas. Além disso,
é diferente da análise de uma pessoa (um artista ou um
existem aquelas que projetam a previsão do tempo, prospectam
político em campanha eleitoral), assim como analisar times
a localização de óleo no fundo do mar ou traçam a melhor rota
esportivos é diferente de analisar a imagem ou a reputação
de percurso entre dois endereços. São máquinas com sistemas
de organizações.
internos especializados, que analisam dados e tomam decisões.
Portanto, já temos resposta de uma das perguntas colocadas A interpretação de textos é apenas um caso de uso para a
no início desse texto. E quanto aos sentimentos? análise de sentimentos. Há outras técnicas e modelos, como
93
a combinação de eventos, que também são utilizados.
O verbo sentir nos remete à experiência, à percepção, à emoção
e ao juízo de valor. Sentir algo bom ou ruim pode ser traduzido Enfim, voltando a pergunta-título, podemos sim afirmar que as
em positivo ou negativo. Há ainda a indiferença, ou seja, o valor máquinas sentem. Basta ensinar e treinar seus sistemas internos
neutro do sentimento. Essa também é uma forma usada para funcionais. Mas pode ficar tranquilo, pois ainda não há nada
estruturar a abordagem de sentimentos em máquinas. Dado que possa nos levar a um fim catastrófico como os de alguns
um cenário e condições a que seu sistema é submetido, há o filmes de ficção científica.
processamento para apresentação de uma resposta: positiva,
Para saber mais:
negativa ou neutra.
IBM Analytics Conversations
Mas qual seria o objetivo de termos máquinas e sistemas que lidam Techniques and Applications for Sentiment Analysis - ACM
com sentimentos? Uma resposta seria a tentativa de modelar o Creating a Sentiment Analysis Model – Google Developers
comportamento humano de maneira a prever sua próxima ação. Introduction to Sentiment Analysis - LCT

Empresas já mostram interesse em análise de sentimentos


buscando tomar ações mais assertivas para aumentar suas
vendas ou evitar a perda de clientes. A pesquisa gira em torno de
reputação e comportamento de clientes durante o lançamento
ou consumo de produtos e serviços. Por exemplo, como avaliar
a percepção ou sentimento do público-alvo na veiculação de
campanhas de marketing e qual o retorno gerado?

Technology Leadership Council Brazil


Alinhando TA e TI
Marcelo de França Costa

Automação pode ser entendida como o uso de máquinas e mas sim dentro de uma filosofia da área de TA, alinhada ao
sistemas de controle para aperfeiçoar a produção de bens ou planejamento corporativo. Uma boa forma de se fazer isso
a prestação de serviços. Esse conjunto de hardware e software, seria tomar como base modelos de referência consagrados,
chamado Tecnologia de Automação (TA), é aplicado com objetivos tais como CMMI, COBIT, ISO e ITIL.
que incluem aumentar a produtividade e a qualidade, reduzir o
A integração entre sistemas de automação e controle de processos
número de falhas e a emissão de resíduos, obter economia de
(TA) e sistemas corporativos (TI) é um requisito antigo. Um dos
escala e melhorar as condições de segurança. A TA é o passo
modelos de referência mais citados na área de TA é o ISA-95
além da mecanização, que diminui a necessidade de intervenção
(ver figura), padrão internacional criado pela ISA (International
humana nos processos.
Society of Automation), usado para
Um dos exemplos de emprego da se determinar quais informações
TA está nas chamadas Smart Grids, devem ser trocadas entre os
redes de energia inteligentes que sistemas de produção, manutenção
buscam melhorar a distribuição de e qualidade com os de back office
energia por meio de medidores como compras, finanças e logística.
de qualidade e de consumo em
Os sistemas corporativos, como
tempo real, os chamados smart
por exemplo os ERP (Enterprise
meters. Assim, a residência do
Resource Planning), usualmente
cliente é capaz de “conversar”
não são projetados para conversar
com a companhia distribuidora,
diretamente com os sistemas
avisando por exemplo sobre um
de “chão de fábrica”. Atuando
problema de energia antes mesmo
como intermediários entre esses
do cliente pegar o telefone para reclamar.
dois mundos estão os sistemas PIMS (Process Information
94
Observando a Smart Grid, verificamos que se trata de uma Management System) e MES (Manufacturing Execution Systems),
solução que também faz uso da Tecnologia da Informação (TI), presentes no nível 3 do modelo da ISA. Esses sistemas controlam
bem como das telecomunicações, para obter informações e a produção, coletam os dados da planta industrial por meio de
agir de forma automatizada, de acordo com o comportamento subsistemas de nível 2 como o SCADA (Supervisory Control And
de fornecedores e consumidores. Data Acquisition), organizando, armazenando e disponibilizando-
os para aplicações do nível 4, responsáveis pelo planejamento
Ao analisar a TA no mundo corporativo, num contexto mais
da produção.
estratégico, dada sua proximidade tecnológica com a TI, seria
natural pensarmos em ambas quanto à definição de processos Ao se buscar o alinhamento entre TA e TI e a integração entre
e objetivos da governança de TI. Essa subárea da governança seus sistemas, uma especial atenção deve ser dada às redes de
corporativa é responsável pela coordenação dos departamentos comunicação de dados, que devem ser segregadas e protegidas.
de tecnologia e pelo alinhamento de seus processos, de forma a Falhas de segurança em redes e sistemas de TA, especialmente
garantir que suportem a estratégia corporativa e contribuam para os que controlam instalações industriais, tais como hidrelétricas,
que a organização atinja seus objetivos de negócio. Espera-se, caldeiras e reatores nucleares, podem resultar não só em prejuízos
com a governança de TI, alcançar benefícios como o alinhamento financeiros mas em desastres de grandes proporções.
às boas práticas e padrões internacionais, facilitar auditorias,
Quando prevalece a sinergia entre TA e TI, quem ganha é a
simplificar o gerenciamento e obter transparência na atuação
empresa. A TA tem muita informação a oferecer para a TI, bem
das áreas, além de racionalizar investimentos ao permitir uma
como a TI tem muito aprendizado e boas práticas que podem
visão mais clara do retorno esperado.
contribuir com os projetos de TA.
A proposta é que a governança de TI seja estendida à área de
Para saber mais:
TA, de forma que engenheiros de automação, por exemplo, não
http://www.isa-95.com/
executem seu trabalho alheios ao contexto global da empresa,
http://www.isa.org

Technology Leadership Council Brazil


O “Vale do Grafeno” e a Revolução Tecnológica
Carlos Alberto Alves Matias

O grafeno é uma camada plana Um novo tipo de cabo de transmissão


de átomos de carbono, da família de dados poderá deixar a Internet
do grafite e diamante, com padrão ultraveloz. Segundo pesquisa
hexagonal, possuindo várias pro- publicada pela revista Nature
priedades muito interessantes: Communication, a ideia é aproveitar
resistente, leve, flexível, quase toda a velocidade alcançada pelos
transparente, e como excelente elétrons no grafeno. Por outro lado,
condutor poderá substituir o silício na cientistas da Berkeley University
produção de alguns equipamentos pensam que o segredo da rapidez
eletrônicos, tornando-os mais rápi- não esteja nos cabos, mas sim nos
dos, compactos e eficientes. As moduladores de rede – equipamentos
aplicações do grafeno parecem responsáveis por gerenciar o envio
infinitas: nanotecnologia, acesso dos pacotes de dados na Internet.
mais veloz à Internet, baterias mais duráveis e recarregáveis
Purificar a água salgada, transformando-a em potável e com baixo
em poucos minutos, além de filtros de água mais eficientes,
custo, poderia ajudar áreas secas, como o nordeste brasileiro.
cimentos mais resistentes, motores mais econômicos e menos
O processo, criado por pesquisadores do Massachusetts
poluentes. Tudo com matéria-prima de baixo custo.
Institute of Technology (MIT), consiste em passar a água do
Descoberto na década de 30, o grafeno teve pouca atenção até mar por um filtro extremamente fino de grafeno, retendo todas
que os cientistas russos Konstantin Novoselov e Andre Geim as impurezas nela contidas, podendo eliminar até materiais
conseguiram isolar o material à temperatura ambiente, merecendo radioativos, o que poderia reduzir contaminações como as
o prêmio nobel de física em 2010. ocorridas recentemente em Fukushima.

Diante dessas tão incríveis propriedades do grafeno, laboratórios Na University of California, um aluno descobriu, casualmente, que
95
ao redor do mundo estão recebendo altos valores para que os ao submeter um disco de grafeno a uma carga elétrica por apenas
cientistas possam fazer suas pesquisas no desenvolvimento dois segundos, um LED se manteve aceso por cinco minutos.
de novas e importantes aplicações. Engenheiros da Stanford University, substituíram o carbono
por grafeno numa nova bateria, cuja recarga se completou em
A Comissão Européia destinará um bilhão de Euros para apoiar
poucos minutos, cerca de mil vezes mais rápido.
projetos pioneiros na próxima década. Nos EUA e em outros
países não será diferente. Construído numa área de 6.500 m2 na O grafeno possui 200 vezes mais mobilidade de elétrons do
Universidade Mackenzie, em São Paulo, o centro de pesquisas que o silício, o que pode permitir a produção de processadores
Mackgrafe, terá investimento aproximado de R$ 30 milhões e mais potentes, com até 300 GHz de frequência. E o monóxido
deverá ser inaugurado em maio de 2014. de grafeno tem a múltipla versatilidade de ser isolante, condutor
e semicondutor, podendo ser muito útil em nanochips.
Atualmente, 1 Kg de grafite custa US$ 1 e dele pode-se extrair
150g de grafeno, avaliado em pelo menos US$ 15 mil, uma Já imaginou um celular no formato de uma pulseira? Sim, isto
fantástica valorização! Prevê-se que o mercado de grafeno poderá ser possível graças à flexibilidade do grafeno. Muitas
terá potencial para atingir até US$ 1 trilhão em 10 anos. E o empresas já registraram diversas patentes relacionadas ao
melhor, estima-se que o Brasil possua a maior reserva mundial, promissor cristal revolucionário e as pesquisas avançam a cada
segundo relatório publicado em 2012 pelo DNPM (Departamento nova descoberta.
Nacional de Produção Mineral).
O futuro ao grafeno pertence e vai mudar a nossa vida!
O grafeno já é utilizado para fabricar eletrodos de baterias,
Para saber mais:
telas táteis, dispositivos de eletrônica digital e compostos para
https://ibm.biz/BdDNb4
a indústria aeronáutica. Porém, especialistas afirmam que o
https://ibm.biz/BdDNbs
melhor ainda está por vir.
https://ibm.biz/BdDNbi

Technology Leadership Council Brazil


O tempo não para, mas pode ser melhor aproveitado...
Antônio Gaspar, Hélvio Homem, José C. Milano, José Reguera, Kiran Mantripragada,
Marcelo Sávio, Sergio Varga e Wilson E. Cruz.

Para muitas pessoas com mais de 35 anos, Ayrton Senna desagradável de tempo passando cada vez mais rápido: basta
“morreu ontem”. É como se desse para fechar os olhos e viver escolher a própria vida (os fatos) e mergulhar nela com especial
de novo a sensação de ligar a TV no domingo pela manhã e vê- atenção em cada momento, tornando-o inédito e digno de muitas
lo vencendo mais uma. Ayrton faleceu em 1o de maio de 1994. conexões cerebrais, saboreando-o como se fosse sempre pela
O surpreendente é que a World Wide Web e seus browsers primeira vez (ou como se fosse o último). O método automático
começaram a se popularizar em 1995, ou seja, logo depois disso. é, sem dúvida, mais confortável mas nos rouba a capacidade
Mas poucos são capazes de se lembrar claramente como era de viver plenamente os momentos e torná-los inesquecíveis.
a vida sem Internet. Qual a causa desse estranho paradoxo? Também cria aquela sensação de tempo perdido, do eterno
correr atrás do sol que se põe, muito bem retratada na música
O psicólogo israelense Daniel Kahneman introduziu insights
Time do Pink Floyd. E para ajudar na tarefa de melhor aproveitar
da área dele na ciência econômica, especialmente no que diz
o tempo, vale a pena lembrar de outra música, Seasons of Love
respeito a avaliação e tomada de decisão sob incerteza. Ele
do musical da Broadway Rent, que nos sugere medir um ano
afirmou que teríamos dois sistemas em nossos cérebros. Um
não somente por seus 525.600 minutos, mas sobretudo pelas
lento, que envolve atenção e foco, que usamos nas atividades
boas experiências vividas durante esse tempo, seja no trabalho,
em que temos consciência e controle. E outro, extremamente
em casa ou na comunidade em que vivemos.
rápido, independente e incontrolável, péssimo em estatísticas
mas ótimo em gerar decisões rápidas por comparação. Por esse É comum imaginar o tempo como algo contínuo, infinito e talvez
trabalho Kahneman recebeu em 2002 o Prêmio do Banco da até cíclico. Ao menos, foi assim que Stephen Hawking procurou
Suécia em Ciências Econômicas em memória de Alfred Nobel descrever a forma do tempo ao representá-lo usando um “Corpo
(comumente e erroneamente chamado de Prêmio Nobel da de Moebius”. A questão intrigante nessa topologia é que não
Economia). Será que a nossa sensação de passagem de tempo existe lado de dentro nem lado de fora, não existe um começo
tem a ver com esses sistemas descritos pelo aclamado cientista? nem um fim, mas sempre estamos percorrendo o mesmo espaço.
96 Em seu livro "O Universo numa Casca de Noz", Hawking afirma
Aparentemente sim e também há sinais de que essa percepção
que a maioria de nós quase nunca presta atenção à passagem
varia de pessoa para pessoa. O relógio interno seria uma medida
do tempo, mas todos de vez em quando se intrigam com o
pessoal e dependente de algum referencial, isto é, duas pessoas
conceito de tempo e seus paradoxos.
no mesmo lugar e executando as mesmas atividades podem
ter a percepção de que o tempo passou mais rápido para uma E cá estamos nós, do comitê editorial do TLC-BR, após duzentas
do que para outra. Isso acontece, entre outras coisas, porque quinzenas. Será que passou muito ou pouco tempo? Ao olharmos
cada um grava os fatos em um nível de intensidade diferente, para o Mini Paper número 1, há quatrocentas semanas (pouco
dependendo de sua relação pessoal com os acontecimentos. mais de quatro milhões de minutos), ainda podemos lembrar do
momento de sua criação e também das muitas aventuras que
Uma frase de Einstein pode dar mais luz a esse fenômeno: “Quando
saboreamos no percurso de sua publicação. As chapas quentes
um homem senta com uma garota bonita por uma hora, lhe parece
existiram, mas os bons papos com autores, revisores, leitores e
um minuto. Mas quando senta numa chapa quente por um minuto,
até críticos, gravaram milhões de conexões inesquecíveis em
lhe parece uma hora”. A isso ele chamou de relatividade, uma
nossos cérebros. Cada Mini Paper foi único, mas em comum
ideia brilhante que nos aponta para um tempo experiencial, que
nos deixaram com gosto de quero mais. Queremos novos temas,
passa mais rápido ou devagar dependendo de como se encara
autores, experiências e sinapses que nos permitam aproveitar os
uma determinada experiência. Ou seja, temos duas variáveis
momentos de sua criação e publicação, assim como esperamos
que, combinadas, nos dão uma pista sobre a percepção de
que lhe proporcionem momentos proveitosos de leitura. Que
tempo. A primeira variável é o que está passando na frente de
venham mais duzentos Mini Papers!
nossos sentidos (os fatos, a chapa quente) e a segunda é como
encaramos ou respondemos a esses fatos, ou seja, a frequência, Para saber mais:
a intensidade e a maneira particular como cada um monta as Corpo de Moebius: http://en.wikipedia.org/wiki/M%C3%B6bius_strip
conexões cerebrais (ou sinapses) em resposta ao que se passou. Daniel Kahneman: http://en.wikipedia.org/wiki/Daniel_Kahneman

Stephen Hawking: http://en.wikipedia.org/wiki/Stephen_Hawking


Isso talvez nos conduza a um método para tentar reagir à sensação

Technology Leadership Council Brazil


Ontologias e a Web Semântica
Fábio Cossini

Apesar de desconhecidas para a maioria das pessoas e Só você, visualmente, conseguirá separar aquilo que realmente
profissionais de TI, as ontologias têm sua origem na Grécia lhe interessa daquilo que está fora do seu contexto de pesquisa.
antiga, tendo sido utilizadas por filósofos como Aristóteles e
As bases da Web Semântica serão as ontologias, que permitirão
Porfírio. Com sua evolução, hoje estão presentes em diversas
dar significado às páginas de conteúdo além de relacioná-las
áreas do conhecimento humano e, em TI, em aplicações para
entre si. Os computadores poderão executar queries por meio
inteligência artificial, gestão do conhecimento, processamento
de agentes para encontrar de forma mais rápida e precisa o
de linguagem natural e engenharia de software. Então, o que
conjunto de informações desejadas, além de proporcionar a
vem a ser uma ontologia e como ela é peça fundamental na
possibilidade de inferência sobre elas e seus relacionamentos.
construção da Web Semântica?
Para dar significado a Web tradicional
Há várias definições para ontologia, mas
baseada em páginas de conteúdo estático
uma das mais encontradas é a de Tom
(HTML), faz-se necessário que elas venham
Gruber: “Ontologia é uma especificação
acompanhadas de outras tecnologias. O
formal e explícita de uma conceitualização
Resource Description Framework (RDF),
compartilhada”. O World Wide Web
o Resource Descripiton Framework
Consortium (W3C), por sua vez, conceitua
Schema (RDF-S) ou o Simple Knowledge
uma ontologia como “a definição dos termos
Organization System Reference (SKOS)
utilizados na descrição e na representação
são linguagens usadas para descrever o
de uma área do conhecimento”. Por exemplo,
conteúdo de uma página. Conjugadas com
uma ontologia sobre os padrões da Internet
linguagens ontológicas como a Ontology Web
das Coisas (área de conhecimento)
Language (OWL), entre outras, trazem à tona
descreveria esses padrões (objetos), seus
conhecimento estruturado permitindo o uso
atributos (termos) e os relacionamentos
de agentes para busca e inferência.
encontrados entre eles. 97
Apesar dos benefícios da Web Semântica,
As ontologias podem ser consideradas como
alguns obstáculos ainda estão presentes para
um dos níveis mais altos de expressividade do conhecimento,
sua completa adoção. Paradoxalmente, há pouco conteúdo
pois englobam as características presentes em vocabulários,
semântico, tornando difícil sua própria evolução. A integração de
glossários, taxonomias e frames, além de permitir a expressão
diferentes idiomas adiciona esforços de codificação para que o
de restrições de valores (por exemplo, o conjunto único de
mesmo conteúdo seja interpretado por ontologias escritas para
valores para representar as unidades da federação no Brasil) e
outros idiomas. E, acima de tudo, nenhuma linguagem ontológica
restrições de lógica de primeira ordem (um CPF está associado
é comumente aceita como a ideal para a Web Semântica, além
a uma e somente uma pessoa física), além de outras restrições.
de não serem totalmente padronizadas entre si, tornando mais
Por sua vez, a Web Semântica é definida pelo W3C como difícil sua integração.
o próximo grande objetivo da Web, que permitará que
Dessa forma, ainda há um esforço de padronização e adoção
computadores executem serviços mais úteis por meio de
antes de colhermos os frutos que o significado e a automação
sistemas que ofereçam relacionamentos mais inteligentes. Em
de busca trarão sobre a Web Semântica.
outras palavras, a Web passará de páginas com conteúdo
para páginas com significado (semântica). Tente fazer uma Para saber mais:
pesquisa com a palavra “limão” e você terá resultados que Web Semântica: A Internet do Futuro. Karin K. Breitman.

vão desde a definição de uma fruta cítrica até restaurantes e Semantic Web for the Working Ontologist: Effective Modeling in RDFS and OWL. D. Allemang e J. Hendler.

um conhecido bairro paulistano. Six Challenges for the Semantic Web. Oscar Corcho et Al.

Technology Leadership Council Brazil


Customização em massa: obtendo uma vantagem competitiva
Claudio Marcos Vigna

Cada vez mais as empresas têm repensado suas formas de competências funcionais, que por sua vez são sustentadas
fazer negócios. É nesse contexto, em que buscam diferenciais por recursos organizacionais e técnicas operacionais em cinco
para obter vantagens competitivas, que muitas têm adotado a áreas consideradas críticas. Tais áreas e seus objetivos estão
estratégia da customização em massa (CM). descritas a seguir:

A proposta da CM é oferecer produtos únicos numa escala de Planejamento do produto e processo: desenvolvimento de
produção agregada comparável à da produção em massa e a produtos customizáveis que atendam às necessidades do cliente
custos relativamente baixos. Para tanto, a CM exige da empresa e não comprometam a eficiência dos processos operacionais.
que a adota, agilidade e flexibilidade em atender diferentes Um exemplo é o desenvolvimento de produtos modulares, tais
pedidos em diferentes quantidades a custos comparáveis aos como uma plataforma de veículos para ser compartilhada entre
de produtos padronizados e com alto padrão de qualidade. diferentes modelos.

A palavra customização advém do inglês customization, que por Logística de abastecimento: melhoria do relação da empresa com
sua vez deriva da palavra customer, que em português significa seus fornecedores para otimizar os processos. Ao adotar a troca
cliente. Não existe uma tradução para o termo customization eletrônica de dados (EDI — Electronic Data Interchange), é possível
e dessa forma, por falta de uma tradução adequada, esse aplicar técnicas de inventário gerido pelo fornecedor (VMI — Vendor
termo foi aportuguesado como customização, que segundo B. Managed Inventory) para reposição contínua de produtos.
Joseph Pine II, pode ser entendido como o atendimento dos
Operações internas: aumentar a flexibilidade e produtividade
das operações de produção e
logística interna, por exemplo,
adoção de sistemas flexíveis
de manufatura (FMS — Flexible
Manufacturing System), ou
98 robôs capazes de executar
diferentes atividades, confor-
me programa de produção.

Logística de distribuição:
possuir assertividade e agili-
dade nas operações da logís-
anseios específicos de cada cliente ou até a personalização tica desde a expedição até a
em massa de produtos. entrega ao cliente, por exemplo, adoção de técnicas cross
docking e utilização de roteirizadores inteligentes.
No Brasil existem algumas iniciativas embrionárias em direção
à CM. Podemos citar como exemplos, uma empresa de Marketing e vendas: aumentar a interação com o cliente por meio
eletrodomésticos que permite a seus clientes personalizarem do aprimoramento dos canais de promoção e das operações
geladeiras e fogões, e empresas automobilísticas que já permitem de captura de pedidos, por exemplo, adoção de soluções
customizar alguns componentes direto da fábrica. inteligentes de e-commerce, de engines de monitoramento
de redes sociais e de data mining.
Ter a capacidade de atender o cliente com produtos customizados
é o desejo de muitas empresas, pois tal iniciativa cortaria custos A aplicação da customização em massa pode ser benéfica para
relativos a estoques e aumentaria a satisfação do cliente que as empresas, aumentando as receitas, o lucro e a participação de
adquiriu o produto customizado. Mas, para isso, as empresas mercado, mas sua adoção não é tão trivial. Apesar dos obstáculos,
devem vencer os obstáculos decorrentes da sua adoção. executivos têm dedicado esforços para a sua implementação.

A capacitação em CM requer excelência de desempenho Para saber mais:


nas áreas funcionais de toda a cadeia de valor envolvida na http://www.teses.usp.br/teses/disponiveis/3/3136/tde-27072007-160311/pt-br.php
operação. Segundo modelo de Claudio Vigna e Dario Miyake, http://en.wikipedia.org/wiki/Mass_customization
a capacitação pode ser obtida pelo desenvolvimento de http://mass-customization.de/

Technology Leadership Council Brazil


Software Defined Network – O Futuro das Redes
Leônidas Vieira Lisboa e Sergio Varga

A recente evolução nos modelos de entrega de TI, com serviços inteligentes pois todas funções do plano de controle são feitas por
em nuvem, sistemas analíticos e desktops virtuais, intensifica uma camada externa centralizada, denominada SDN controller
a demanda por uma infraestrutura de TI que seja simples, que sai dos equipamentos de rede e passa a ser um software
escalável e flexível. executado em um servidor comum.

Para atender essas demandas, a indústria avançou no Para padronizar e promover o uso do SDN foi criada uma
desenvolvimento de tecnologias de virtualização de servidores e organização chamada Open Network Forum (ONF) que é
storage, trazendo maior agilidade no aprovisionamento de recursos liderada por empresas usuárias e que também conta com a
em um data center. No entanto, esse avanço não foi acompanhado participação de fabricantes de equipamentos. Ela incentiva
pela indústria de rede. Alterações na camada de rede usualmente a adoção do SDN por meio do desenvolvimento de padrões
requerem intervenções complexas abertos. Um dos resultados desse
e com baixo grau de automação, trabalho foi o OpenFlow, um protocolo
aumentando o prazo e o risco para que padroniza a comunicação entre
implementação de novos serviços. um SDN controller e o plano de dados
Há pouca flexibilidade para absorver dos equipamentos de rede. Apesar de
mudanças de tráfego, impactando ser o protocolo mais associado com
o suporte a ambientes dinâmicos SDN, alguns fabricantes já começam
como os requeridos pelo mercado. a empregar outros protocolos, como
Em grande parte, essa complexidade BGP (Border Gateway Protocol) e
reside no fato de que cada modelo XMPP (Extensible Messaging and
de equipamento de rede é projetado Presence Protocol), para implementar
para executar funções específicas. casos de uso de SDN em redes que
Além disso, as funções de controle exigem maior escalabilidade, pois
e entrega de pacotes são realizadas ainda há discussões no mercado 99
por cada dispositivo de forma sobre a capacidade máxima de
descentralizada. A camada de paco- projetos SDN com base somente
tes (ou dados) é responsável pelo em OpenFlow.
envio, filtragem, buffering e medição dos pacotes, enquanto a
Outra iniciativa importante é a aliança Open Daylight, liderada
de controle é responsável por mudanças na topologia da rede,
por fabricantes da indústria de redes e que propõe a criação de
rotas e regras de envio.
uma estrutura robusta, sobre código aberto da Linux Foundation,
Uma nova tecnologia foi desenvolvida para agilizar o para construir e suportar uma solução SDN.
aprovisionamento de recursos de comunicação, facilitar a
Hoje, essa tecnologia é mais aplicável para redes de data centers,
administração e a operação e simplificar a infraestrutura de rede.
mas já existem iniciativas para utilizá-la no aprovisionamento de
Ela tem sua base em três pilares. O primeiro é a separação das
serviços em redes de telecomunicações. O uso de SDN ainda
camadas de controle (lógico) e de entrega de dados (físico) em
não se massificou mas seu desenvolvimento foi incorporado por
equipamentos distintos, o que permite controle centralizado. O
todos os principais fabricantes de rede. Também é interessante ver
segundo é virtualização ou abstração da rede física, permitindo
que alguns ambientes de nuvem já estão testando e incorporando
designar o melhor caminho para cada tráfego, independente da
características de SDN para obter ganhos de produtividade na
infraestrutura física. E o terceiro é a capacidade de programação
administração da rede e endereçar os desafios de eficiência
da rede, propiciando a automação da configuração da rede, ou
enfrentados atualmente.
seja, sistemas externos podem automaticamente definir a melhor
configuração de rede para uma dada aplicação. Para saber mais:
https://www.opennetworking.org/
Essa tecnologia se chama Software Defined Network (SDN) e
http://www.opendaylight.org/
promete trazer agilidade e flexibilidade em expansões e mudanças
https://www.opennetworking.org/sdn-resources/onf-specifications/openflow
de rede. Os switches de rede se tornam mais simples e menos

Technology Leadership Council Brazil


Uma vista privilegiada do planeta Terra
Kiran Mantripragada

Sensoriamento remoto não é um assunto assim tão novo. Na biodiversidade vegetal e animal, medições e análises de corpos
verdade a Terra vem sendo fotografada de forma sistemática d’água, indústria de petróleo e gás, previsão e monitoramento de
por aeronaves desde o início da primeira guerra mundial com desastres naturais, controle de fronteiras, crescimento urbano,
o objetivo de mapeamento, reconhecimento e vigilância. planejamento de transporte, vias públicas, rodovias, ferrovias etc.

Hoje os sistemas embarcados em satélites estão mais baratos Esse avanço tecnológico que possibilitou tantas aplicações
e miniaturizados. A evolução nos sensores permitem maior trouxe também problemas bastante desafiadores. Os pixels
resolução espacial e espectral. Isso significa que um único de uma única imagem são grandes quantidades de dados em
pixel da imagem pode capturar objetos com menos de um duas dimensões em tons de cinza. Associa-se a isso, imagens
metro quadrado na superfície da Terra, enquanto a análise com bilhões de pixels em centenas de faixas espectrais e temos,
em diferentes faixas do espectro eletromagnético ou acústico então, matéria-prima para o famoso Big Data com dados na
permite diferenciar características que antes eram impossíveis casa do 100-dimensional.
de se fazer, por exemplo a identificação de espécies vegetais.
Alguns dessses conjuntos de dados estão disponíveis gra-
Desde a primeira guerra, a resolução tuitamente na Internet. Por exemplo, a
espacial variou de alguns quilômetros página Web Earth Explorer da NASA/
por pixel até menos de um metro por USGS (United States Geological Survey)
pixel enquanto a resolução espectral permite baixar imagens de qualquer parte
permite hoje coletar imagens com mais do mundo, desde meados de 1970 até
de duzentas bandas de frequência. Para hoje ou até a última passagem do satélite
se ter uma ideia, as nossas câmeras Landsat sobre o local de interesse.
comuns fotografam somente as três
Há também dados de diversos outros
bandas do espectro visível, ou RGB
satélites e de alguns produtos resultantes
(Red, Green, Blue). Há ainda satélites
100 de pós-processamento de imagens. Por
equipados com sensores tipo RADAR,
exemplo pode-se baixar um mapa com
ou seja, que coletam ondas acústicas
índices de vegetação chamado NDVI
em vez de eletromagnéticas.
(Normalized Difference Vegetation Index).
Utilizando um princípio relativamente Esse tipo de informação é muito usado
simples, a reflexão de ondas, é possível fotografar o planeta Terra em agropecuária e mapeamento de florestas.
de forma sistemática. Um sensor equipado em uma aeronave
Assim, inicia-se uma disciplina dentro da computação cognitiva
(satélite, avião, ou até um balão) recebe diferentes valores de
que busca capturar informações relevantes a partir desse universo
intensidade para cada material que reflita o seu sinal. Por exemplo,
de dados sensoriais. Algoritmos de machine learning precisam
uma planta e o telhado de uma casa refletem um determinado
lidar com enorme quantidade de pixels para interpretá-los e
sinal eletromagnético com intensidades diferentes.
transformá-los em informação consumível pelo ser humano.
Graças à popularização dessa tecnologia, os estudos em
A tecnologia que envolve o sensoriamento remoto é mais um
processamento de imagens de sensoriamento remoto vêm
legado que ficou disponível para o mundo depois das guerras e
ganhando muito destaque no meio acadêmico. Algumas
das corridas armamentista e espacial. Cabe então a cada um de
empresas também já exploram comercialmente esse tipo de
nós, cientista, empresário, professor, fazendeiro, gestor público ou
serviço e outras fornecem pesquisas sob demanda, normalmente
apenas um cidadão curioso, fazer uso desse conjunto fantástico
com aeronaves de altitudes mais baixas para atender um
de dados, totalmente disponíveis, muitos deles sem nenhum
propósito específico.
custo, para ajudar a observar, vigiar, preservar e transformar
As aplicações são inúmeras: produção agropecuária, o nosso planeta.
monitoramento de florestas, análise e previsão meteorológica,
Para saber mais:
vigilância militar e civil, planejamento urbano, ocupações
USGS Earth Explorer: http://earthexplorer.usgs.gov
irregulares, análise de correntes marítimas, análise de
What is Remote Sensing: http://oceanservice.noaa.gov/facts/remotesensing.html

Technology Leadership Council Brazil


Sorria, você pode estar nas nuvens
Antônio Gaspar

O mundo está cada vez mais ins- serviço de armazenamento de câmera de


trumentado, interconectado e inteligente. segurança off-site, na nuvem, é possível
Essa frase abriu o artigo da pág. 64, e é a solução para sinistros tais como
publicado pela série Mini Papers do citados anteriormente.
TLC-BR. Nesse contexto, falemos um
As vantagens da gravação de CFTV
pouco sobre a evolução da câmeras de
residencial em nuvem são inúmeras:
CFTV (Circuito Fechado de TV) para uso
independência de servidores locais
residencial. As câmeras de captação de
(menos equipamentos no local monitorado),
vídeo evoluíram a partir dos modelos
imunidade à perda de imagens por furto de
analógicos, chegaram aos digitais e hoje
equipamento (incluindo furto das próprias
são compatíveis com tecnologias de rede
câmeras, uma vez que a imagem é gravada
local Wi-Fi. As chamadas câmeras IP
externamente), backup de gravações (é
tornaram-se dispositivos inteligentes a
possível baixar as gravações do sistema
um custo acessível para uso doméstico. Uma câmera IP, além
para dispositivos móveis), segurança e privacidade (controle de
de prover função básica de captura de imagem, inclui aplicação
acesso ao portal e comunicação segura), viabilização de uso de
e interface web que disponibiliza funções adicionais como
câmeras wireless (menos cabeamento, fácil instalação), e por
captação de som ambiente e movimento com envio de alertas
fim, a visualização das imagens podem ser feitas por diversos
por email, SMS e redes sociais, visão noturna, configuração de
tipos de dispositivos a qualquer momento, em qualquer lugar.
múltiplos perfis de acesso e horários de operação etc.
Mas como contratar um serviço desses? São poucas opções
Em geral as câmeras possuem pouca ou nenhuma capacidade
e muito voltadas ao mercado corporativo, especialmente
de armazenamento de dados, ou seja, permitem visualização
condomínios, empresas e estabelecimentos comerciais.
em tempo real mas a gravação depende de serviços externos.
Felizmente, esse perfil está mudando e surgiram opções para
Então é necessário ter servidores de gravação (dispositivos 101
o mercado residencial. No mercado nacional, os preços ainda
DVR — Digital Video Recorder) nas instalações vigiadas para
são elevados, mas como a nuvem é agnóstica a fronteiras
armazenar as imagens.
geográficas, há empresas no exterior com serviços e preços
Sendo assim, um cidadão investe em algumas câmeras IP que bem interessantes, caso o idioma inglês não seja uma restrição.
permitem monitoração 24x7 e grava no seu computador ou
Esse tipo de serviço é geralmente cobrado pela combinação
DVR. Precavido que é, mitiga problemas de indisponibilidade
de uma ou mais variáveis tais como gigabytes armazenados,
instalando nobreaks para as câmeras e o dispositivo de gravação.
tempo de retenção, número de câmeras capturadas, número
Entretanto, há uma condição fora de seu controle e que deve ser
de frames por segundo etc. Além disso, os provedores desse
levada em consideração: e se o ambiente for invadido? O que
tipo de serviço, chamado de VSaaS (Video Surveillance as
fazer se o dispositivo de gravação for subtraído e, junto dele,
a Service) oferecem um portfólio vasto de funcionalidades
todas as imagens? Aliás, isso é comum em eventos desse tipo.
agregadas à simples captura de imagem. Serviço de indexação
A área de segurança eletrônica residencial esbarra em maneiras
de gravações, notificação de câmera fora de serviço, inicio
de armazenar remotamente as imagens gravadas.
automático de gravação a partir de detecção de movimento,
Bem, foi-se o tempo em que cada residência tinha um computador alertas com fotos anexadas etc. Há, inclusive pacotes simples
pessoal cujos arquivos ali permaneciam, isoladamente. Estamos de serviços de gravação, sem custo e sem compromisso com
na era do wireless, dos smartphones e das nuvens, tudo mais prazo de contrato. Portanto, quando vir uma placa de “sorria,
inteligente e interconectado. Com a migração de armazenamento, você esta sendo filmado”, pense que sua imagem pode estar
servidores e desktops para a nuvem, os sistemas de segurança muito além do que você imagina.
seguem a mesma tendência. Segundo previsões do Gartner para
Para saber mais:
o setor, uma em cada dez empresas processarão os recursos
http://www.researchandmarkets.com/research/m9wgm4/video
de segurança em nuvem até 2015. Na linha residencial, isso
http://en.wikipedia.org/wiki/VSaaS
não deverá ser diferente. Ter suas imagens capturadas por um

Technology Leadership Council Brazil


IBM Mainframe – 50 anos de Liderança Tecnológica e Transformação
Daniel Raisch

Com o fim da II Guerra Mundial a computação comercial ganhou bancos entraram no mundo online e o homem pisou na Lua.
grande impulso, levando varias empresas de tecnologia na O S/360 esteve presente em tudo isso, sendo considerado
Europa e nos EUA a investirem nesse mercado. A IBM, que pelo escritor americano Jim Collins, um dos três produtos de
se lançou nessa jornada no início dos anos 50, chegou aos maior impacto nos negócios, junto com os primeiros carros
anos 60 com pelo menos três famílias de computadores de da Ford e os jatos da Boeing.
grande porte em produção, firmando-se como um dos grandes
A engrenagem sonhada por Thomas Watson Jr. girou forte e a IBM
fornecedores do mercado.
começou a dominar o mercado. A renda da corporação cresceu
Esse aparente sucesso não escondia os desafios que a IBM ano após ano, diferentemente dos resultados da concorrência.
enfrentava internamente. As várias linhas de computadores
Em meados dos anos 70, a IBM se tornou a maior empresa de
tinham arquitetura e tecnologias distintas, linhas de produção e
computadores do mundo figurando entre as TOP 10 empresas
gestão independentes e até incompatibilidade entre os modelos
do mundo de acordo com a Fortune Magazine.
da mesma família e seus periféricos. Administrar essas linhas
tornava a produção mais cara e abria espaço para a concorrência No Brasil dos anos 70 e 80, devido à política governamental de
toda vez que um cliente tinha necessidade de upgrade. informática que restringia a importação de computadores, os
Mainframes IBM tiveram uma penetração
Foi a partir desse cenário que Thomas
muito expressiva, impulsionados pela
Watson Jr., na época IBM Chairman of
sua fábrica em Sumaré, SP.
the Board, decidiu lançar a corporação
no projeto de um novo computador Nesse período, a IBM Brasil teve um
que tivesse como características, a crescimento acelerado, ampliou a base
compatibilidade total entre os modelos, de clientes, aumentou o faturamento
periféricos e aplicativos, e que buscasse e abriu filiais próprias nas principais
suprir as necessidades computacionais capitais do país, deixando um legado
102
dos clientes nas várias indústrias. de estabilidade para os difíceis anos 90.

Foi com essa missão que o executivo Cinquenta anos depois, verificamos
Bob Evans e seu time de arquitetos, Fred que a robustez da arquitetura original
Brooks, Gene Amdahl e Gerrit Blaauw, desenharam o computador aliada à sua liderança tecnológica, permitiram que o IBM
System/360 (S/360), um sistema para todos os propósitos, por Mainframe se mantivesse vivo no mercado e relevante para
isso o nome S/360. os seus clientes e para toda a corporação até os dias de hoje.

Com orçamento de US$ 5B e mais de dois anos de trabalho, o Atualmente, o Brasil ocupa o terceiro lugar no cenário mundial do
S/360 deu origem à família de mainframes IBM, os computadores mercado de mainframes, o que representa um parte significativa
de grande porte de maior sucesso no mercado, que se tornou do faturamento da IBM Brasil.
o benchmark da indústria de computação comercial. Nenhum outro produto de tecnologia se manteve por tanto
O anúncio oficial foi feito por Thomas Watson Jr. em 7 de Abril tempo no mercado, e nenhum outro produto da IBM contribuiu
de 1964, na cidade de Poughkeepsie, NY, EUA. tanto para o sucesso da corporação.

O Mainframe, hoje denominado System z, transformou a empresa. Sem medo de errar, pode-se dizer que a IBM fez o Mainframe
Sete novas fábricas foram inauguradas para atender à demanda, e o Mainframe fez a IBM.
outras linhas de computadores foram fechadas paulatinamente, Para saber mais:
e o número de funcionários cresceu exponencialmente. Toda a http://ibmmainframe50anos.blogspot.com
corporação girava em torno dessa nova família de computadores. Livro: Father, Son & Co. - Thomas Watson Jr.

A indústria também foi transformada. A aviação civil avançou Livro: Memories That Shaped an Industry - Emerson Pugh

com a implementação do sistema de reservas SABRE, os

Technology Leadership Council Brazil


A Interoperabilidade na Internet das Coisas
Paulo Cavoto

A Internet das Coisas está cada vez mais presente. A popu- deve ser uma diretriz para que a Internet das Coisas evolua e
larização de tecnologias de proximidade como o NFC (Near alcance mais adeptos. Os projetos de novos aplicativos não
Field Communication) e o RFID (Radio-frequency identification), conseguirão prever qualquer tipo de interação, mas devem
além da miniaturização de componentes e o crescente aumento se basear em uma arquitetura que suporte a propagação e o
da velocidade e da confiabilidade das redes de comunicação, consumo de mensagens.
aceleram e impulsionam o surgimento de equipamentos inteli-
Cada novo produto deverá prover meios de comunicação e
gentes e intercomunicáveis.
extensões mais simples por meio de APIs (Application Program
No Mini Paper da pág. 80 (Os desafios da Internet das Interfaces) públicas ou protocolos abertos, de maneira que
Coisas), Fábio Cossini descreve as principais barreiras para até mesmo um orquestrador dessas conexões torna-se
consolidação e ampla aceitação dessa nova era tecnológica. desnecessário. Com o intuito de permitir uma gama ainda maior
Essa transformação também traz uma grande ruptura na área de possibilidades, cada componente deverá fornecer meios de
de desenvolvimento de software. configuração com outros dispositivos usando tecnologias de
proximidade ou mesmo a Internet, algo parecido com o que
Muito disso já é realidade e a arquitetura do software executado
fazemos com dispositivos bluetooth.
nesses dispositivos inteligentes é voltada à comunicação direta
entre máquinas (M2M – Machine To A diferença é que uma vez “pareados”
Machine), porém sempre com escopo pode-se escolher quando disparar
muito bem definido de possibilidades. outro evento ou quais ações serão
Por exemplo, sua adega poderá ter tomadas assim que determinado
um componente de integração com evento é disparado. Dessa forma, as
lojas online, assim seu eletrodoméstico possibilidades de comunicação entre
poderá avisar se você deve comprar dispositivos são ampliadas, deixando
mais vinho e eventualmente poderá a escolha da ações sob o controle do
103
até fazer sugestões com base usuário, possibilitando a criação de
no seu padrão de consumo. Mas redes entre dispositivos de marcas
provavelmente esse dispositivo não diferentes.
vai conversar com sua televisão para
Usando nosso exemplo, cada componente (a adega, o forno e
lhe dar as opções de vinho disponíveis ou com o seu fogão
a televisão) deve gerar e consumir eventos, mas eles só serão
para saber qual deles melhor harmoniza com o que esta sendo
configurados uma vez e instalados em nossa casa por nós
preparado, quando os dispositivos forem de marcas diferentes
mesmos. Pela televisão você poderá procurar pelos dispositivos
O mercado vem lidando com ambientes cada vez mais prontos para se comunicar e, uma vez encontrada a adega,
heterogêneos e interconectados há algum tempo. Sistemas configurar o que fazer caso determinado evento seja disparado
com maior capacidade de extensão e de integração são os por ela; o mesmo poderia ser feito entre o forno e a adega.
pedidos mais comuns que os fabricantes têm recebido e novos
Cabe a nós, profissionais de tecnologia, arquitetar nossos
produtos inteligentes nascem a todo momento, ainda que
produtos de forma aberta e customizável. Assim, as aplicações
muitas vezes, esses produtos não se comuniquem com os
e possibilidades que a Internet das Coisas nos proporcionará
de outros fabricantes.
só serão limitadas pela nossa imaginação.
É impossível contemplar todas as possibilidades de interações
Para saber mais:
entre os dispositivos, porém deve-se promover a conectividade
Mini Paper Series 184 (pg. 80): Os desafios da Internet das Coisas
com a maior quantidade possível de dispositivos, inclusive
http://www-03.ibm.com/press/us/en/pressrelease/43524.wss
com aqueles ainda nem foram inventados. Essa possibilidade

Technology Leadership Council Brazil


Gerência de Projetos Ágil ou PMBOK®?
Felipe dos Santos

Desde a publicação do Manifesto Ágil, no início de Existem projetos de natureza iterativa e incremental,
2001, a comunidade técnica de desenvolvimento nos quais não se espera ter todas as respostas no
de software vem discutindo, comparando e início. Uma novela é um bom exemplo. A novela
avaliando os métodos de gerenciamento de pode ter vários rumos conforme a aceitação do
projetos prescritivos (aqueles que geram mais público e, em até certos casos, essa pode ser
artefatos oferecendo uma série de controles) e encerrada por não atender aos interesses da
adaptativos (aqueles que se moldam durante emissora. O Scrum faria mais sentido nesse tipo
iterações). A partir destas definições, podemos de projeto. Já para um projeto de construção de um
considerar o guia PMBOK (Project Management estádio de futebol o PMBOK seria o mais indicado,
Body of Knowledge), publicado pelo PMI (Project por conta de planejamento rigoroso que inclui
Management Institute) como um método prescritivo gestão de riscos. Nesse tipo de projeto tudo deve
e o Scrum como um método adaptativo. O Scrum ser minuciosamente planejado no início para que
é a metodologia ágil mais utilizada no mundo (6th o cliente saiba exatamente o quanto vai gastar e
Annual “State of Agile Development” Survey, 2011) em quanto tempo terá sua obra concluída.
e, por isso, será utilizado neste artigo.
Em projetos de desenvolvimento de software, um estudo feito
Uma comparação entre essas abordagens mostra um grande pelo Standish Group (Chaos Report 2002) mostrou que 64% de
paradoxo, pois o planejamento do PMBOK deve propiciar a um sistema raramente é utilizado. A parte restante corresponde
prevenção de mudanças, enquanto nos métodos ágeis as ao que realmente importa para os usuários. O Scrum orienta a
mudanças são bem vindas. Para a comunidade PMI os métodos priorizar o que gera maior valor ao cliente. Em certos projetos
ágeis aparentavam ser pouco documentados, organizados e isso quer dizer, inclusive, que podemos colocar em produção
altamente suscetíveis a falhas, devido a uma quantidade mínima algo inacabado, mas que já ofereça um benefício ao negócio.
de controles. Já para a comunidade Agile as metodologias Devemos levar em consideração que o cliente muitas vezes não
104 existentes eram burocráticas e agregavam pouco valor. Com o sabe exatamente o que quer no início de um projeto. Durante
tempo as duas comunidades entenderam que existia espaço para as iterações ele pode se dar conta de que algum item já não
ambas metodologias. O método ágil surge, então, como uma nova faz mais sentido e que um novo requisito é necessário, seja por
ferramenta para o gerente de projetos, dando mais flexibilidade demanda do negócio, exploração de uma nova oportunidade,
em projetos de natureza adaptativa. O PMI reconheceu isso e mudança na legislação, entre outros.
há pouco mais de dois anos lançou a certificação PMI-ACP
Na ótica do Scrum, por exemplo, itens podem ser substituídos,
(Agile Certified Practitioner) que certifica o profissional com
removidos e incluídos, sem que isso represente falha no projeto,
conhecimentos em princípios ágeis.
pois foca-se mais na satisfação do cliente do que em cronogramas
O PMBOK orienta que o planejamento seja completo e abrangente e planejamento minuciosos. Existem também alguns desafios
e que o plano produzido seja seguido até a entrega final do projeto. como, por exemplo, transformar um cliente tradicional (que exige
Essa abordagem é apropriada em muitos casos, já que as áreas prazo e custo definido) em um cliente Agile, mas observa-se
de conhecimento do PMBOK auxiliam o gerente de projetos uma aceitação cada vez maior dos métodos ágeis. Por exemplo,
na obtenção de sucesso, pelo menos sob o ponto de vista do os clientes começam a aceitar que em alguns casos vale mais
“triângulo de ferro” (prazo, custo e escopo). Os métodos ágeis, a sinergia entre os participantes no projeto e a resposta rápida
como o Scrum, defendem a ideia de que estimativas empíricas às mudanças do que um clima de conflito entre as partes, no
estão sujeitas a erros e que não se deve investir muito tempo qual se discutem fortemente prazo, custo e escopo, gerando
planejando todos os detalhes, já que podem ocorrer diversas desgaste no relacionamento.
mudanças no decorrer do projeto.
Para saber mais:
Mini Paper "Agile: você está preparado?" (pg. 53) Series Ano 7 Maio 2012 – n. 157

http://www.agilemanifesto.org

http://brasil.pmi.org/

Technology Leadership Council Brazil


Sangue, suor e Web: como a World Wide Web foi criada
Marcelo Savio

O surgimento da World Wide Web há 25 anos é comumente Quando chegaram no local do evento descobriam que não havia
referenciado como um marco fundador de uma nova era, na qual nenhuma maneira de se conectarem com a Internet. Robert
a Internet se expandiu para além dos muros das universidades novamente entrou em ação. Conseguiu convencer o gerente
e centros de pesquisa onde estivera restrita por vinte anos. do hotel a puxar um par de fios de telefone e os soldaram ao
Apesar da sua enorme importância e quase onipresença no modem externo que haviam levado pois não havia conector
mundo atual, a Web possui uma história altamente contingencial, compatível. Para conseguirem conexão com a Internet, Robert
com precariedades, tensões e bifurcações, comuns a muitos ligou para a universidade mais próxima e encontrou alguém
outros fatos ou artefatos tecnológicos. E que só foi para a frente que lhes permitiu usar um serviço de acesso discado, de
graças à inspiração e, principalmente, à transpiração, de seus onde foi possível conectar ao servidor Web remoto que estava
abnegados construtores Tim Berners-Lee e Robert Cailliau, preparado no CERN. A demonstração foi um sucesso. Nos
ambos do CERN, um laboratório internacional de física localizado anos seguintes dessa mesma conferência, todos os projetos
em Genebra (Suíça). e estandes tinham algo a ver com a Web, que a partir de então
começou a ganhar o mundo.
O físico britânico Tim trabalhava lá como desenvolvedor de
software quando idealizou um sistema para obter informações Com a disseminação surgiram inúmeras sugestões de melhorias.
sobre as conexões entre todas as pessoas, equipes, equipamentos Chegara a hora de procurar o IETF, o fórum responsável pelos
e projetos em andamento no CERN. Em março de 1989, escreveu padrões e especificações técnicas da Internet. Mas somente em
uma proposta para diretoria, na qual solicitava recursos para a 1994, após dois anos de intermináveis discussões, finalmente
construção de tal sistema. Não obteve retorno algum. conseguiram aprovar a primeira especificação da Web. E,
preocupados com o futuro, organizaram no CERN naquele
Foi quando entrou em cena Robert Cailliau, um engenheiro
mesmo ano a I Conferência da WWW, na qual foi anunciado que
de computação belga que Tim conhecera em sua primeira
os códigos da Web seriam de domínio público e que um consórcio
passagem pelo CERN, para quem expôs suas ideias e agruras.
de padronização específico para lidar com as questões da Web
Robert, um entusiasta de tecnologia e veterano do Laboratório,
(W3C) seria criado. A nascente tecnologia estava devidamente 105
tornou-se em um aliado primordial, pois possuía uma extensa
encaminhada para assumir a relevância que de fato lhe coube
rede de contatos e providencial capacidade de convencimento.
na história da Internet e da humanidade.
Reescreveu a proposta em termos mais atrativos e conseguiu
não só a aprovação por parte da mesma diretoria, mas também A criação da Web, por meio da combinação de hipertextos com
dinheiro extra, máquinas novas, estudantes ajudantes e salas redes de computadores, nos mostrou que também é possível
para trabalhar. Tim pôde dar início à codificação das primeiras criar uma tremenda inovação a partir de tecnologias consolidadas
versões dos principais elementos da Web: a linguagem HTML e amplamente disponíveis. E que a jornada para se concretizar
(Hyper Text Markup Language), o protocolo HTTP (Hyper Text uma inovação é sempre difícil e demanda não só competência
Transfer Protocol), o servidor e o cliente Web (browser). técnica mas muita determinação por parte de seus idealizadores.
Pense nisso quando abrir a próxima página Web no seu browser.
Em 1991, Robert e Tim conseguiram aprovação para
demonstrar a primeira versão da Web na Hypertext-91, uma
grande conferência internacional sobre hipertextos no EUA. Para saber mais:
Na verdade, eles enviaram um paper que fora rejeitado “por http://www.webat25.org
falta de mérito científico”, mas, com a persistência usual, http://www.w3.org/People/Berners-
Lee/Weaving/Overview.html
conseguiram convencer os organizadores do evento a
lhes deixarem realizar uma demonstração ao vivo. Partiram
entusiasmados para os EUA, mas mal sabiam eles que as
dificuldades estavam só começando.

Technology Leadership Council Brazil


Acesso Direto à Memória: vulnerabilidade por projeto?
Felipe Cipriano

FireWire é uma interface serial de alta velocidade criada pela Apple Além do cenário de uma máquina sendo explorada durante a
como substituta para o SCSI e de certa forma concorrente do USB. ausência do usuário, essa técnica pode ser usada para acessar
máquinas em suspensão, pois a memória é mantida ligada.
Uma das vantagens da FireWire é a possibilidade de obter
Quando a máquina retorna do estado de suspensão, as senhas
a-cesso direto à memória, sem intervenção do sistema operacio-
– como a da BIOS ou de programas de criptografia de disco – não
nal. Isso permite transferências mais rápidas e diminui bastante
são necessárias para reativar o sistema. Esse ataque é bem
a latência entre o dispositivo e o computador.
rápido por já conhecer os endereços de memória geralmente
Não é por acaso que a FireWire é bastante usada em edição usados para autenticação em cada sistema.
audiovisual. Nesses cenários que demandam menor atraso
Como forma de evitar isso, a maioria dos sistemas operacionais
possível (edição em tempo real, por exemplo), qualquer
mais novos implementa o ASLR (Address Space Layout
interferência do sistema operacional seria bastante perceptível.
Randomization), um método que usa endereços de memória
Mas o acesso direto à memória também tem seus perigos: diferentes para cada vez que um programa é iniciado. Mas
como a FireWire é uma interface hot-swap, um dispositivo essa proteção apenas diminui a velocidade do ataque, visto
pode se conectar a um computador já iniciado e ter acesso que nesses sistemas é necessário obter um dump completo de
privilegiado à memória do sistema, que muito provavelmente memória e então procurar pelos endereços de memória onde
contém informações confidenciais. Assim, é possível conseguir o código de autenticação está carregado.
um dump – uma cópia de todo o conteúdo da memória – apenas
Uma das soluções mais comuns é bloquear o driver serial
se conectando à porta FireWire de um computador já ligado,
da FireWire, o que já é suficiente para evitar ataques DMA
mesmo que ele esteja travado por senha.
(Direct Memory Access). Outra solução é bloquear completa-
Um dos ataques comuns explorando o acesso direto à memória mente o uso das portas FireWire, seja removendo drivers ou
na FireWire é obter esse dump de memória para então analisá- isolando a entrada.
lo em busca de informações.
106 No Mac OS X e no Linux é possível desativar apenas o DMA. No
Em alguns sistemas operacionais as senhas do usuário atual caso do OS X, quando se usa criptografia de disco, o sistema
não são criptografadas e ficam expostas na memória como texto bloqueia automaticamente o DMA pela FireWire quando a tela
puro. Ainda que o sistema trate adequadamente as senhas, é está bloqueada com senha.
possível obter dados de documentos recentemente abertos ou
E apesar da interface FireWire estar entrando em desuso, esse
mesmo explorar falhas em programas de terceiros.
ataque é possível em qualquer interface hotplug que tenha
Mas o ataque que acho mais interessante é a manipulação direta acesso direto à memória, como por exemplo a Thunderbolt,
de códigos já carregados na memória para burlar a segurança que é justamente tida como a substituta da FireWire.
do sistema. Assim como o GameShark fazia com jogos de
Para saber mais:
videogame, esse tipo de ataque modifica as bibliotecas de
https://www.os3.nl/_media/2011-2012/courses/rp1/p14_report.pdf
autenticação carregadas em memória para aceitar qualquer
http://www.breaknenter.org/projects/inception/
senha. Esse tipo de ataque é bem discreto, já que não altera
arquivos do sistema e dificilmente alguém estranharia sua
senha (legítima) sendo aceita pelo sistema. Também é eficaz
mesmo em máquinas com criptografia de disco, uma vez que
as chaves já estão carregadas na memória para executar o
sistema operacional.

Technology Leadership Council Brazil


Big Data e o Nexo das Forças
Alexandre Sales Lima

Nos últimos anos observamos uma mudança significativa no


mercado de TI encabeçada principalmente pela confluência das
seguintes forças: cloud, mídia social, mobilidade e informação
(Big Data). Esse último se encontra no epicentro da mudança,
pois seu desenvolvimento está intrinsicamente relacionado
com o crescimento e confluência das outras forças. Dado esse
cenário, uma pergunta se destaca: como navegar na onda de
oportunidades de Big Data no nexo dessas forças?

Se nós olharmos para cada uma delas podemos observar o


seguinte cenário:

Cloud: o aumento na adoção de soluções de computação em


nuvem vem provendo mais agilidade, escalabilidade, capacidade
e dinamismo ao mundo corporativo, permitindo a oferta de O primeiro passo é entender o que é Big Data. O Forrester
novos e melhores serviços. o define como técnicas e tecnologias que tornam a
manipulação de dados em escala extrema acessível. O
Mídia Social: extremamente difundida no contexto interpessoal
segundo passo é entender o que podemos fazer com ele.
possui um conjunto de informações bastante diversificado (texto,
Big Data permite analisar mais informações, mais rápido e
vídeo, relacionamentos e preferências). Ela se consolidou como
mais profundamente, nos ajudando a entender o mundo de
um canal de comunicação poderoso do ponto de vista social e
uma maneira inconcebível há pouco tempo atrás. Possibilita
corporativo, dando uma voz ativa ao cidadão e ao consumidor.
também encontrar valor e oportunidades de negócio onde
Mobilidade: com um crescimento mundial acima de dois dígitos não era previamente concebido. Por exemplo, permite que
a utilização de smartphones mudou em vários aspectos como uma grande corporação interaja de forma individualizada
107
a sociedade se comporta e se correlaciona. A adoção de e personalizada em escala. Contudo o terceiro passo é o
tecnologias 3G e 4G introduzem um nível de capilaridade e mais importante. Como fazer isso?
abrangência na coleta de informações nunca visto na história.
Antes de tudo é preciso entender que Big Data por si só não é
Por exemplo, mais de 60% dos usuários do Twitter acessam a
importante. Se não colocarmos os dados dentro de um contexto
aplicação por meio de dispositivos móveis. Isso sem considerar
significativo, não vamos conseguir surfar nesse tsunami de dados.
os dispositivos conectados que emitem sinais continuamente.
Por fim, temos a tecnologia que viabiliza essa visão: Hadoop,
Informação: além do crescimento sistêmico natural das empresas, sistema distribuído para armazenar e recuperar informações,
temos hoje um aumento grande também de dados relacionados distributed streams computing para processar dados em alta
com a colaboração humana, tais como, e-mails, páginas web, velocidade e advanced analytics para identificar padrões e
documentos, conversas de mensagens instantâneas e tecnologia tendências nesse mar de informações.
de mídia social.
A convergência dessas forças está propiciando não só uma
Se olharmos a dinâmica entre essas forças, podemos ver que mudança no cenário de TI, mas também está promovendo uma
cada uma delas potencializa a outra numa espiral crescente mudança nos processos de negócio atuais. A combinação desses
de capacidades e volume de dados. O Gartner chama essa componentes viabiliza a extração de valor dos dados e a geração
confluência de “Nexus of Forces”, o IDC de “The Third Platform”, de vantagem competitiva para as empresas que souberem
The Open Group de “Open Platform 3.0”. Independentemente utilizá-los. Para manter-se competitivo nesse novo mercado é
do nome podemos ver que Big Data está no centro dessa necessário que, não só as empresas, mas os profissionais de
mudança do cenário de negócios, ora como catalizador ora TI dominem esses novos conceitos.
como subproduto do processo de negócio. Mas como tirar
Para saber mais:
proveito disso?
http://www.ibmbigdatahub.com/

http://www.gartner.com/technology/research/nexus-of-forces/

https://ibm.biz/BdDwS7

Technology Leadership Council Brazil


Desmistificando Capacidade Virtual, Parte I
Jorge L. Navarro

Em um sistema virtualizado, as máquinas virtuais compartilham a aloca núcleos físicos para os virtuais. O número de núcleos
máquina física (PM — do inglês physical machine). Essa máquina virtuais pode limitar a capacidade virtual, isto é, a VM com
física tem uma capacidade de processamento bem definida, 2 núcleos virtuais nunca poderá ter uma capacidade virtual
mas quanto dessa capacidade real vai para uma máquina virtual superior a 2 núcleos físicos.
(VM) específica?
Prioridade relativa. Esse parâmetro especifica prioridades
Vamos chamar de capacidade virtual a capacidade realmente entre VMs que concorrem por capacidade. Essa competição
utilizada por uma VM. Quais são os parâmetros que determinam pode acontecer quando a soma das demandas é maior que a
essa capacidade virtual? Hypervisors e tecnologias de capacidade da PM. Os nomes mais comuns desse conceito são
virtualização diferentes podem usar nomes diferentes, mas uncapped weight (peso sem corte) ou shares (compartilhamento).
em todos os casos, os conceitos por traz deles são os mesmos.
A capacidade virtual, de fato, depende de todos os fatores acima.
Capacidade de Máquina Física. A camada de virtualização distribui Vamos considerar um cenário simples: 2 VMs, vermelha e azul,
a capacidade da PM entre suas VMs. Os recursos disponíveis compartilhando uma PM de 8 núcleos.
em uma PM é o limite absoluto da capacidade virtual: uma VM
As VMs vermelha e azul são ambas definidas da mesma forma:
hospedada não pode ser maior que a PM anfitriã e o processamento
capacidade garantida de 4 núcleos, sem uso exclusivo, sem
extra, devido a virtualização em si (overhead) também deve ser
corte/limite, 8 núcleos virtuais e prioridade relativa de 128.
considerado. A capacidade é tipicamente medida em núcleos
de processador ou o agregado dos ciclos de CPU (MHz). O que aconteceria quando usuários da VM vermelha colocassem
uma demanda de 5 núcleos em sua VM, ao mesmo tempo
Capacidade Garantida. Essa é a capacidade que a VM terá
em que usuários da VM azul colocassem uma demanda de 5
com certeza, quando demandada. Por exemplo, considere
núcleos em sua VM? De acordo com a parametrização acima,
uma capacidade garantida de 4 núcleos. Se a carga requerida
é possível que a VM vermelha use 5 núcleos físicos pois ela
pela VM são 2 núcleos, a VM utilizará esses 2 núcleos. Mas
está sem corte/limite e tem pelo menos 5 núcleos virtuais. Mas
108 se a demanda aumentar para 5 núcleos, a VM terá 4 núcleos
para poder ir além dos seus 4 núcleos garantidos deve haver
garantidos e o núcleo faltante poderá ou não ser disponibilizado
capacidade física disponível. E esse não é o caso, pois a VM
dependendo de fatores adicionais. Isso também é conhecido
azul está usando seus 4 núcleos de capacidade garantida.
como nominal e reserva, e é medido em unidades de capacidade.
Então, a distribuição de capacidade final nas condições acima
Atributo de uso exclusivo. Marcação indicando se a capacidade
é: ambas as VMs estão usando 4 núcleos, consequentemente
garantida é separada para uso exclusivo da VM. Se não for, a
a PM está 100% ocupada (todos os 8 núcleos utilizados).
capacidade garantida não utilizada fica disponível para uso
Pode-se concluir, da perspectiva de dimensão, que a PM foi
pelo resto das VMs que compartilham a PM. Outro nome para
subdimensionada, não conseguindo atender a todas as demandas.
esse atributo é uso dedicado.
O que aconteceria se a demanda da VM azul decrescesse de
Limite/atributo de corte. Marcação que indica se a capacidade
5 para 1 núcleo? Na segunda parte deste artigo abordaremos
garantida pode ser excedida ou não, mas a capacidade virtual
isso considerando casos mais complexos e sutis.
da VM pode ir além da capacidade garantida caso necessário.
Alguns hypervisors especificam um limite de capacidade não Para saber mais:
atrelado a capacidade garantida. https://www-304.ibm.com/connections/blogs/performance/entry/demystifying_virtual_
capacity_part_i?lang=en_us
Núcleos virtuais. Um conceito fundamental, mas por vezes https://www-304.ibm.com/connections/blogs/performance/?lang=en_us
complicado, é o elo entre o mundo físico e o virtual. O sistema http://pubs.vmware.com/vsphere-55/index.jsp?topic=%2Fcom.vmware.vsphere.resmgmt.
doc%2FGUID-98BD5A8A-260A-494F-BAAE-74781F5C4B87.html
operacional dentro da VM enxerga núcleos virtuais e entrega a
http://www-03.ibm.com/systems/power/software/virtualization/resources.html
execução de processos para eles, e em seguida, o hypervisor

Technology Leadership Council Brazil


Desmistificando Capacidade Virtual, Parte II
Jorge L. Navarro

No Mini Paper anterior definimos o conceito de capacidade livre, de acordo com suas prioridades relativas. A vermelha e
virtual e identificamos os fatores genéricos de que ele depende: azul estão nesse grupo, ambas usam 3 núcleos garantidos
Máquina Física (PM), capacidade garantida, atributo de uso mais meio núcleo vindo do núcleo livre dividido em duas
exclusivo, atributo de limite/corte e prioridade relativa. partes iguais, já que ambas VMs tem a mesma prioridade
e portanto recebem a mesma fração. Nessa situação, a PM
Um cenário muito simples foi proposto: uma PM de 8 núcleos
está 100% utilizada e existem demandas não atendidas – a verme-
com duas VMs, a vermelha e a azul, parametrizadas com a
lha e a azul.
seguinte configuração: capacidade garantida de 4 núcleos, sem
uso exclusivo, sem corte/limite, 8 núcleos virtuais e prioridade O que aconteceria se a VM verde fosse desligada ou sua demanda
relativa de 128. caísse para zero? Ou se a VM azul tiver um limite/corte? Ou se
o número de núcleos virtuais para a VM vermelha for alterado
Se a demanda da vermelha é de 5 núcleos e da azul é de 1
para 2? Ou se a demanda da verde subir para 4 núcleos?
núcleo, qual será a distribuição da capacidade restante?
Ou se a capacidade garantida da azul for de uso exclusivo?
A azul receberá somente 1 núcleo, já que essa demanda é bem E se... e se... e se...
menor que os 4 núcleos garantidos. Os 3 núcleos restantes não
Os cálculos para resolver um caso genérico, se você sabe
são usados e, como ela não tem o atributo de uso exclusivo
o que fazer e como fazer, são simples. Eu criei uma planilha
ativado, eles são cedidos de volta como capacidade livre.
implementando esses cálculos, para ser usada como uma
O uso da vermelha aumenta pra 5 núcleos, 4 deles vindos de sua ferramenta de ajuda: O desmistificador de capacidade virtual.
capacidade garantida e 1 núcleo adicional vindo da capacidade Ela vem com uma apresentação que ilustra o seu uso. Realize
livre. Nessa situação a PM está 75% ocupada (6 de 8 núcleos) experimentos com a ferramenta a fim de compreender e entender
e não existem demandas não atendidas. totalmente capacidades virtuais.
Uma regra geral é que se todas as VMs estiverem sem corte e Um último ponto: talvez eu devesse adicionar o seguinte
sem uso exclusivo e a soma de todas as demandas resultar em subtítulo: “… num mundo perfeito”. No mundo real existem 109
um número menor que a capacidade da PM, então as demandas efeitos de segunda ordem – sobrecarga (overhead), ineficiências,
de todas as VMs poderão ser atendidas. perdas de cache – que diminuem as capacidades virtuais que
Vamos considerar um caso com concorrência, ou seja, a obtemos. Esses efeitos pertencem ao universo de técnicos
capacidade de PM não é suficiente para satisfazer a soma das avançados e gurus de performance, mas você deve estar
demandas das VMs, sendo todas elas sem corte e sem uso ciente de sua existência.
exclusivo. Como a capacidade da PM, agora escassa, é distribuída? Para saber mais:
Suponha a mesma PM de 8 núcleos, com 3 VMs (vermelha, azul e https://www-304.ibm.com/connections/blogs/performance/entry/demystifying_virtual_capacity_2nd_
part_and_tool?lang=en_us
verde) e a seguinte configuração: capacidade garantida de 3 núcleos
https://www-304.ibm.com/connections/blogs/performance/?lang=en_us
para vermelha e azul e 2 núcleos para a verde, sem uso exclusivo,
http://pubs.vmware.com/vsphere-55/index.jsp?topic=%2Fcom.vmware.vsphere.resmgmt.
sem corte/limite, 8 núcleos virtuais e prioridade relativa de 128. doc%2FGUID-98BD5A8A-260A-494F-BAAE-74781F5C4B87.html

http://www-03.ibm.com/systems/power/software/virtualization/resources.html
As demandas são: vermelha e azul com 4 núcleos e verde
com 1 núcleo. As demandas somam 9 núcleos, mais do que a
capacidade física (8 núcleos).

No primeiro grupo temos VMs com demandas menores ou


iguais às suas capacidades garantidas: elas são atendidas
e o resto da capacidade garantida é cedida, aumentando
a capacidade livre. A VM verde está nesse grupo: ela usa 1
núcleo e cede 1 núcleo.

No segundo grupo ficam as VMs com demandas maiores


que as suas capacidades garantidas: elas recebem suas
capacidades garantidas mais uma proporção da capacidade

Technology Leadership Council Brazil


Considerações Finais e Agradecimentos
Agostinho de Arruda Villela, Presidente do TLC-BR

Como foi colocado na apresentação, estamos vivendo um Adelson Lovatto


momento de transformações intensas. Políticas, econômicas Adrian Hodges
e tecnológicas. Transformações, por sua vez, impõem a neces- Adrian Ray
sidade de reeducação/novos aprendizados. Agostinho Villela

Contemplando os cerca de 100 mini papers que compõem esse Alberto Eduardo Dias

livro, tem-se uma boa ideia dos temas que serão dominantes, e, Alberto Fernando Ramos Dias

portanto, o que deverá compor a agenda daqueles que querem Alex da Silva Malaquias

se preparar para essas mudanças. Vale dizer que, ainda que Alexandre Sales Lima

cada mini paper, intencionalmente, não tenha se aprofundado no Alexis da Rocha Silva
seu respectivo tema, permitiu ao leitor adquirir um conhecimento Anderson Pedrassa
inicial do assunto, indicando referências para mais informações. André Luiz Coelho da Silva
André Viana de Carvalho
Compilar esses documentos, no entanto, envolveu esforço
Argemiro José de Lima
considerável. Desde o esforço despendido por cada autor para
Argus Cavalcante
desenvolver o assunto de uma forma concisa, porém interessante,
Ashish Mungi
passando pelo esforço dos revisores, dos tradutores (os mini
papers foram escritos, em sua maioria, em português e depois Atlas de Carvalho Monteiro

traduzidos para o inglês), dos revisores de tradução e de Argemiro Bianca Zadrozny

Lima e Maria Carolina Azevedo que coordenaram todo o processo, Boris Vitório Perez

incluindo a parte administrativa de obter recursos financeiros Brendan Murray


110 Bruno da Costa Flach
e contratar fornecedores. Tudo isso feito na forma de trabalho
voluntário, além dos deveres e obrigações de cada um. Carlos Fachim
Carlos Henrique Cardonha
Tamanha mobilização remete às práticas que decorrem dos
Carolina de Souza Joaquim
valores da nossa companhia que visam justamente permitir
Caroline Pegado de Oliveira
que a IBM possa operar as transformações que se espera. Por
Cesar Augusto Bento do Nascimento
exemplo, "unite to get it done" (demonstrada claramente, pela
Christian Prediger Appel
mobilização que envolveu todo esse trabalho) e "show personal
Claudio Keiji Iwata
interest" (sem a qual, estaríamos ainda com um livro incompleto).
Cleide Maria de Mello
Assim, gostaria de deixar registrado, em nome do TLC-BR
Colleen Haffey
(Technology Leadership Council), o meu mais sincero apreço,
Daniela Kern Mainieri Trevisan
agradecimento e admiração por todos aqueles que tornaram
David Losnach
a intenção desse segundo livro numa realidade, publicado em
David R. Blea
2 idiomas, na forma digital e impressa. Os autores, IBMistas e
Debbie A. Joy
ex-IBMistas, os revisores do Comitê Editorial, os tradutores da
Denis Vasconcelos
comunidade técnica da IBM Brasil, os revisores de tradução
Denise Christiane Correia Gonçalves
da IBM Academy of Technology e os líderes do Comitê Editorial.
Denise Luciene Veroneze
Por fim, cabe lembrar que a produção dos mini papers (felizmente)
Diane Ross
não para. E já são nove anos, quinzenalmente.
Eduardo Furtado de Souza Oliveira

Technology Leadership Council Brazil


Fabio Cossini Nicole Sultanum
Felipe Grandolpho Odilon Goulart
Fernando Ewald Paolo Korikawa
Fernando Padia Junior Patrick R Varekamp
Fernando Parreira Patti Foley
Flávia Aleixo Gomes da Silva Paulo Emanuel Critchi de Freitas
Flavia Cossenza Belo Paulo Huggler
Flavia Faez Muniz de Farias Priscilla Campos Kuroda de Carvalho
Gabriel Pereira Borges Rafael Cassolato de Meneses
Gerson Itiro Hidaka Reinaldo Tetsuo Katahira
Gerson Makino Renan Camargo Pacheco
Gerson Mizuta Weiss Rosane Goldstein G. Langnor
Glauco Marolla Rosely Oga Miyazaki
Guilherme Correia Santos Ruth Gibrail Tannus
Guilherme Galoppini Felix Sandipan Sengupta
Hema S Shah Sandra Mara Gardim Rocha
Jeferson Moia Sandra Woodward
João Claúdio Salomão Borges Sara Elo Dean
João Francisco Veiga Kiffer Sergio Varga
João Marcos Leite Shephil Philip
João N Oliveira Shweta Gupta
John Easton Steve Heise
111
John Fairhurst Tarik Maluf
José Alcino Brás Tatiana Brambila Corghi
Juliana Costa de Carvalho Teresa Raquel Souza do Nascimento
Katia Lucia da Silva Thiago Guimarães Moraes
Kelsen Rodrigues Thiago Signorelli Luccas
Leonardo Garcia Bruschi Thomas Mailleux Sant'Ana
Liane Schiavon Tiago Moreira Candelária Bastos
Louise de Sousa Rodrigues Vandana Pandey
Luiz Gustavo Nascimento Vitor Hugo Lazari Pavanelli
Marcel Benayon Washington Cabral
Marcelo França Wellington Chaves
Marco Aurélio Cavalcante Ribeiro
Marco Aurélio Stelmar Netto
Marcos Antonio dos Santos Filho
Marcos Sylos
Marcos Vinícius Gialdi
Marcus Vinícios Brito Monteiro
Maria Carolina Feliciano de Oliveira e Azevedo
Miguel Vieira Ferreira

Technology Leadership Council Brazil


Technology Leadership Council Brazil

Você também pode gostar