Você está na página 1de 28

Gestão de Tecnologia

da Informação
Material Teórico
Fundamentos de Gestão de Infraestrutura de TI

Responsável pelo Conteúdo:


Prof. Ms Fábio Peppe Beraldo

Revisão Textual:
Profa. Ms. Selma Aparecida Cesarin
Fundamentos de Gestão de Infraestrutura
de TI

• Introdução

• Componentes de Infraestrutura

• Plataforma de Software e Tecnologias Emergentes

• TI Verde

• Virtualização

• Planejamento de TI – PDTI

Falaremos bastante sobre a Gestão da TI, seus objetivos e tarefas.


Nesse contexto, a unidade apresenta uma introdução aos
Fundamentos da TI e também à Sustentabilidade na Gestão da TI.
Para total aproveitamento, leia atentamente o conteúdo teórico
e participe de todas as atividades – sem perder o prazo de
fechamento da Unidade.

Este guia de estudo demonstra a forma de organizar suas atividades para cumprir os
propósitos da Disciplina online e objetiva salientar algumas informações importantes sobre
esta Unidade, bem como sobre o estudo online em si.
Primeiramente, é necessária a conscientização de que a exigência – tanto de estudo quanto
de avaliação – da disciplina online é, no mínimo, a mesma que a presencial.
Assim, é necessário organizar seu tempo para ler atentamente o material teórico e assistir os
vídeos, se houver, inclusive do material complementar.
Organize-se também de forma a não deixar para o último dia a realização das atividades de
sistematização (pontuada) e fórum (não pontuado). Podem ocorrer imprevistos e, encerrada
a Unidade, encerra-se a possibilidade de obter a nota relativa a cada atividade.
Especificamente quanto à Unidade 5, o objetivo são os fundamentos de gestão de
infraestrutura de tecnologia da informação e governança de tecnologia da informação com
COBIT®, além dos fundamentos da TI verde e de como este conceito está mudando o
mundo de forma permanente e economizando milhões de dólares em recursos.

5
Unidade: Fundamentos de Gestão de Infraestrutura de TI

Contextualização

Fundamentos de Gestão de Infraestrutura de TI


Em uma pesquisa realizada pela IDC e Accenture, conforme escreve Giardino (2009), em
uma escala de 1 a 5, as 150 maiores companhias instaladas no Brasil receberam nota 2,4 no
quesito de melhores práticas em gestão de infraestrutura em tecnologia da informação – contra
uma média mundial de 4.
“Esse cenário é preocupante, já que o Brasil desponta como uma das economias que mais
crescem em investimentos de TI e telecomunicações, superando os países da América Latina e
deixando para trás Coréia e Índia, entre os emergentes”, explica Roberto Gutierrez, diretor da IDC.
Isso ocorre por várias causas, uma delas é porque as empresas estão utilizando suas verbas
orçamentárias concentradas em atividades de manutenção do parque de equipamentos
existentes nas suas corporações e não em novas tecnologias e processos ou em inovação.
Outro ponto está nas formas de se implementar políticas, que em nosso país estão em fase
embrionária. Como se o consumo de energia atual fosse adequado.
Recursos de hardware antigos incluindo aí seus processadores, fontes e partes móveis, possuem
consumo energético inadequado frente a novas formas disponíveis atualmente, o que acarreta
entre outras coisas em ambientes mais quentes, que exigem maior potência dos equipamentos
de condicionamento de ar gerando custos que elevam o valor do rateio da área de tecnologia da
informação frente ao negócio, fazendo com que as margens de rentabilidade do negócio caiam,
ou seja, insuficientes frente à competição por preço entre as empresas globalizadas.

Sustentabilidade da Gestâo de TI
A TI verde é a nova maneira de pensar em tecnologia não apenas na produção, mas também
nas soluções para problemas como lixo tecnológico e impactos ambientais.
Da Silva (2012) escreve ainda que, de acordo com o Greenpeace, as grandes potências
mundiais já aderiram não somente no desenvolvimento de legislação sobre sustentabilidade, mas
também no que tange à filosofia de reduzir custos empregando soluções mais limpas quanto à
fonte de energia, equipamentos mais econômicos, que geram menor calor entre outras técnicas.
Nosso país também já adotou, mas empresas admitem que o atrativo principal para as
políticas verdes ainda é a redução dos custos, o posicionamento da marca e a reputação.
Mais de 70% das empresas brasileiras adotaram os benefícios da TI verde; um exemplo é a
AmBev, que implantou o sistema da TI verde e reduziu custos, evitou o descarte de mais de 15
mil máquinas no período de 2002 a 2010 e aumentou a vida útil dos computadores.
Vamos entender o que isso significa e ver como empresas como, Unilever, Cemig, Fleury,
Natura, Banco Bradesco, Banco do Brasil e Petrobrás fazem.

6
Introdução

Para a tecnologia da informação de uma organização, a gestão da infraestrutura trata da gestão


dos componentes essenciais para sua operação, tais como políticas, processos, equipamentos,
dados, recursos humanos e os contatos externos para a sua eficácia global.
A gestão de infraestrutura é dividida em categorias de gerenciamento de sistemas,
gerenciamento de rede e gerenciamento de armazenamento. Produtos de gerenciamento de
infraestrutura estão disponíveis a partir de um número de fornecedores, como por exemplo, a
HP-Hewlett-Packard, DELL, IBM, Microsoft e Oracle.
Entre outros fins, a gestão de infraestrutura visa a:
»» Reduzir a duplicação de esforços;
»» Garantir a adesão aos padrões;
»» Melhorar o fluxo de informações em todo um sistema de informação;
»» Promover a adaptabilidade necessária para um ambiente mutável;
»» Garantir a interoperabilidade entre as entidades organizacionais e as entidades externas;
»» Manter eficaz a mudança de gestão de políticas e práticas.

Apesar de todas as atividades comerciais dependerem da infraestrutura, planejamento


e projetos, a gestão efetiva é normalmente desvalorizada ou posta em segundo plano, em
detrimento da organização.
A Infraestrutura de TI fornece a fundação para servir os clientes, trabalhando com fornecedores
e gerenciamento de processos de negócios. Ele define as capacidades da empresa hoje e no
futuro próximo.

Figura 1: Conexão entre a empresa, os recursos de ti, infraestrutura e business.

Adaptado de http://intranet.ibat.ie/

7
Unidade: Fundamentos de Gestão de Infraestrutura de TI

Os serviços que uma empresa é capaz de fornecer aos seus clientes, fornecedores e funcionários
é uma função direta de sua infraestrutura de TI. Idealmente, esta infraestrutura deve suportar
os negócios da empresa e estratégia de sistemas de informação e as novas tecnologias da
informação têm um forte impacto sobre negócios e estratégias de TI, bem como os serviços que
podem ser prestados aos clientes.
A infraestrutura pode ser vista como a tecnologia ou como grupos de serviços e podemos
entender como serviços aquilo prestado pelo hardware e software, plataformas de computação,
telecomunicações, gerenciamento de instalações físicas, software de aplicação, gerenciamento
de dados, gestão de TI, padrões de TI, TI educação, treinamento, pesquisa e desenvolvimento.
A infraestrutura vista como uma perspectiva de plataforma de serviços destaca o valor para
o negócio fornecido.
Observe: Figura 2: Histórico evolucionário da Infraestrutura de TI

8
Podemos perceber 5 estágios na evolução da infraestrutura. Na primeira figura, vemos um
conceito típico da máquina eletrônica de contabilidade entre os anos 30 e 50 do século XX,
que era a utilização de grandes máquinas pesadas com software residente no hardware para
classificação, inclusão e comunicação de dados.

Na figura seguinte, vemos grandes máquinas de propósito geral, conhecidas como mainframes
e mais adiante microcomputadores, a partir do final da década de 50 do século passado e
vigente até os dias de hoje.

Os mainframes foram os primeiros computadores poderosos que poderiam fornecer


compartilhamento de tempo, multitarefa e memória virtual e com poder suficiente para suportar
milhares de terminais remotos.

A era do mainframe foi um período de computação altamente centralizado, controlado


por programadores e operadores de sistemas. Minicomputadores poderosos e mais baratos
começaram a mudar esse padrão, permitindo a computação descentralizada customizável para
departamentos ou unidades de negócios.

A terceira figura mostra um computador pessoal cujo início remonta aos anos 80 do
século XX, com o PC da IBM amplamente utilizado pelas empresas americanas. Foram
criados para serem sistemas autônomos e somente na década de 1990 é que puderam ser
conectados em rede.

A quarta figura refere-se à era cliente/servidor, com computadores que usam dados do
computador servidor e com clientes em rede, estes servidores proveem os clientes com
serviços e capacidades.

O trabalho de processamento do computador é dividido entre estes dois tipos de máquinas. O


cliente é o ponto de entrada do usuário, enquanto o servidor normalmente processa e armazena
dados compartilhados, serve páginas da Web ou gerencia as atividades de rede. O

O termo servidor refere-se tanto à aplicação de software quanto ao computador físico no


qual o software de rede é executado. O servidor pode ser um mainframe, mas servidores
hoje normalmente são versões mais poderosas de computadores pessoais. Distribuir o
trabalho por meio de uma série de pequenas máquinas baratas custa muito menos do que os
minicomputadores ou mainframes.

Por fim, a última figura mostra que em uma rede cliente/servidor com várias camadas, pedidos
de clientes para o serviço são manipulados por diferentes níveis de servidores.

A partir daí, podemos imaginar uma variação dessa figura, que seria o que chamamos de
modelo empresa da internet que usa a tecnologia de rede para internet como o TCP/IP, que
permite às empresas vincular diferentes dispositivos e também as redes locais LANs.

Ambientes computacionais integrados permitem reunir e distribuir muito mais rápido os


dados. Há cinco características importantes de tecnologia da informação, hoje, que atuam como
direcionadores à expansão e desenvolvimento de tecnologia. Estes incluem: Lei de Moore e
Poder Microprocessamento feita em 65 do século passado e diz que o poder de processamento
dobra a cada dois anos.

9
Unidade: Fundamentos de Gestão de Infraestrutura de TI

Isso foi possível porque numa CPU construída nos dias de hoje cabem muito mais transistores
que as anteriores; fora isso, o custo baixou drasticamente. Para se ter uma ideia, um processador
Intel pode conter até 1 bilhão de transistores e pode ser fabricado em grandes volumes com
transistores que custam menos de 10-4 centavos a unidade. Isso é um pouco menor do que o
custo de um caractere impresso num livro.
No futuro, a nanotecnologia, usará átomos e moléculas para criar chips de computador
milhares de vezes menores do que as tecnologias atuais permitem.
Os nanotubos, que são minúsculos tubos, cerca de dez mil vezes mais finos que um cabelo
humano, consistem folhas enroladas de hexágonos de carbono. Foram descobertos na década
de 90 do século passado por pesquisadores da NEC, com usos potenciais como fios minúsculos
ou em dispositivos eletrônicos e o potencial de servirem como condutores muito poderosos de
corrente elétrica.
O postulado do armazenamento digital em massa é um tipo de “lei” que demonstra que
enquanto a quantidade de informação digital produzida no mundo dobra a cada ano, o custo
de armazenamento de informação digital está caindo a uma taxa exponencial.
Para termos ideia, entre os anos de 80 e 90 do século XX, as capacidades dos discos rígidos
para PCs cresceram a uma taxa de 25% de crescimento a cada ano; porém, depois dos anos 90,
o crescimento acelerou para mais de 65% a cada ano.
Outro fato está associado ao fator custo de armazenamento de dados, que vem declinando
exponencialmente desde os anos 50 do século passado. Desde o primeiro dispositivo de
armazenamento magnético, que foi utilizado em 1955, o custo de armazenamento de um
kilobyte de dados caiu de forma exponencial, dobrando a quantidade de armazenamento digital
para cada unidade monetária gasta a cada 15 meses em média.
A Lei Metcalf e Economia de Rede, na década de 1970, descrevia que o valor de uma
rede crescia exponencialmente conforme ocorria o aumento na adesão à rede. A demanda
por tecnologia da informação tem sido impulsionada pelo valor social e de negócios das
redes digitais, que rapidamente multiplicaram o número de ligações reais e potenciais entre os
membros da rede.
Outro fator complementar à lei Metcalf diz respeito aos custos em declínio, tanto das
comunicações, quanto da Internet.
Uma das razões para o crescimento da população da Internet é o rápido declínio na
ligação entre ela e os custos de comunicação em geral. O custo por kilobit de acesso à
Internet caiu, e modems a cabo agora entregam um kilobit de comunicação por um preço
de menos de 2 centavos.
Por fim, há o fator normas e efeitos de rede, que são padrões de tecnologia, especificações
que estabelecem a compatibilidade dos produtos e a capacidade de se comunicar em uma rede,
proporcionar poderosas economias de escala.
Algumas das normas, arquiteturas e empresas importantes que moldaram a infraestrutura
de TI incluem ASCII, UNIX, o TCP/IP, Ethernet, Apple, IBM, Microsoft, Intel, o computador
pessoal, e a www.

10
Componentes de Infraestrutura

A infraestrutura é composta por sete componentes principais:

»» Plataformas de hardware de computador, que incluem máquinas, cliente e servidor,


bem como mainframes modernos destinados a um único aplicativo dedicado;

»» Plataformas de sistema operacional, que incluem plataformas para computadores


clientes, dominadas por sistemas operacionais Windows e servidores, dominadas
por várias formas de UNIX ou Linux. Sistemas operacionais são softwares que
gerenciam os recursos e as atividades do computador e atuam como uma interface
para o utilizador;

»» Aplicativos de software empresariais que incluem SAP, Oracle, PeopleSoft, e


software para middleware, que são usados para ligar os sistemas de uma empresa
aos aplicativos existentes;

»» Gestão de dados e de armazenamento, que são tratados pelo software de gestão


de dados e dispositivos de armazenamento que incluem métodos tradicionais de
armazenamento, tais como arrays de disco e bibliotecas de fitas e tecnologias
mais recentes, baseadas em rede de armazenamento, como redes de área de
armazenamento SANs, que permitem conectar vários dispositivos de armazenamento
dedicados em redes de alta velocidade;

»» Plataformas de redes e telecomunicações, que incluem sistemas operacionais Windows


Server, Novell, Linux e UNIX, quase todas as LANs e muitas redes de longa distância
WANs que usam os padrões TCP/IP para a rede;

»» Plataformas de Internet, que se sobrepõem e têm de se relacionar com a infraestrutura


da empresa, a rede geral e plataformas de hardware e software. Infraestrutura de
Internet inclui o hardware, software e serviços para manter sites corporativos, intranets
e extranets, incluindo serviços de hospedagem e software web e ferramentas de
desenvolvimento de aplicativos. Um serviço de hospedagem mantém um servidor Web
grande, ou uma série de servidores;

»» Serviços de integração de sistema e consultoria são invocados para a integração de


uma empresa que possua sistemas legados com novas tecnologias e infraestrutura e
que precise de conhecimentos técnicos para implementação de novas infraestruturas,
juntamente com alterações relevantes nos processos de negócios, treinamento e
integração de software. Sistemas legados são geralmente sistemas mais antigos de
processamento de transações, criados para computadores mainframe ou em tecnologia
que sofreu sucessivas atualizações ou mudanças graves, que continuam a ser usados,
todavia, para evitar o alto custo de substituí-los ou redesenhá-los.

11
Unidade: Fundamentos de Gestão de Infraestrutura de TI

Figura 3: Ecossistema de Infraestrutura de TI


Tendências contemporâneas da plataforma de hardware

Embora o custo da computação tenha caído, as despesas de infraestrutura de TI têm crescido


devido ao aumento do custo de serviços de computação, softwares, e do aumento da intensidade
e sofisticação da computação.
Plataformas de telecomunicações e computação têm convergido: no nível do cliente, com a
fusão de PDAs e telefones celulares, e no nível do servidor e de rede, com a ascensão da telefonia
via Internet. Computação em Grid utiliza os recursos ociosos computacionais separados, os
computadores geograficamente distantes para criar um único supercomputador virtual. Neste
processo, um computador servidor quebra de dados e aplicações em pedaços discretos que são
divididos entre as máquinas do grid.
A computação em grid ofereceu redução de custos, aumentaram a velocidade computacional
e a agilidade.
Computação sob demanda, ou computação utilitária, refere-se a empresas que podem
atender o pico de demanda de outras pelo poder computacional que possuem e grandes centros
de processamento de dados.

12
Isso permite às outras, que usam este serviço, a reduzirem seus investimentos em infraestrutura
de TI, investindo apenas em poder de computação, tanto quanto necessário, em média,
e pagando por energia adicional. Este acordo oferece às empresas agilidade muito maior e
flexibilidade na sua infraestrutura.
Computação autonômica é um esforço da indústria para desenvolver sistemas que podem
configurar, otimizar, reparar e se proteger contra invasores e vírus. Software de proteção com
atualizações de vírus automáticas é um exemplo de computação autonômica.
Computação de Borda é um multi-tier, esquema de balanceamento de carga para aplicações
baseadas na Web, em que partes do conteúdo do site e de processamento são executadas
por servidores menores e mais econômicos. Em uma computação de borda, o cliente solicita
o fornecimento de conteúdo como apresentações estáticas, códigos reutilizáveis, enquanto
componentes de lógica de banco de dados e de negócios são entregues pelos servidores
localizados na empresa.
Empresas implantando centenas ou milhares de servidores, muitas descobriram que
estão gastando mais em eletricidade para alimentar e resfriar seus sistemas do que quando
adquiriram o hardware. O consumo de energia pode ser reduzido por meio da virtualização e
de processadores multicore.
Virtualização é o processo de apresentação de um conjunto de recursos de computação
(como poder de computação ou armazenamento de dados), para que possam ser acessados de
forma que não se restrinjam à configuração física ou localização geográfica.
Virtualização de servidores permite às empresas executarem mais de um sistema operacional
ao mesmo tempo, em uma única máquina. A maioria dos servidores é executada em apenas
10% a 15% da capacidade, e virtualização pode aumentar as taxas de utilização do servidor
para 70% por cento ou mais.
Um processador de vários núcleos é um circuito integrado que contém dois ou mais
processadores. Essa tecnologia permite que os motores de processamento de dois ou mais
processadores com as necessidades de energia e dissipação de calor reduzidos para realizar
tarefas mais rapidamente do que um chip de recursos simples, com um núcleo de processamento.

Plataforma de Software e Tecnologias Emergentes


Há cinco grandes temas da evolução contemporânea plataforma de software:
»» Software de código aberto é um software produzido por uma comunidade de centenas
de milhares de programadores ao redor do mundo e está disponível gratuitamente
para ser modificado por usuários, com o mínimo de restrições. A premissa de que
software livre é superior à de software comercial baseia-se na capacidade de milhares de
programadores modificando e melhorando o software a uma taxa muito mais rápida.
Em troca de seu trabalho, os programadores recebem prestígio e acesso a uma rede de
outros programadores, e adicionais pagos em consultoria e oportunidades de trabalho.

13
Unidade: Fundamentos de Gestão de Infraestrutura de TI

O processo de melhoria de software de código aberto é monitorado e auto-organizado


por comunidades de programação profissionais. Milhares de programas de código
aberto, que vão desde sistemas operacionais até suítes de escritório, estão disponíveis a
partir de centenas de sites. Linux, um sistema operacional relacionado com Unix, é um
dos mais bem conhecidos softwares de código aberto, e é o S.O. mais rápido do mundo
para cliente e servidor;
»» A ascensão do software de código aberto, particularmente o Linux e as aplicações
que ele suporta, tem implicações profundas para plataformas de softwares corporativos
como a redução de custos, confiabilidade e resiliência e de integração. Por causa de
sua confiabilidade, baixo custo e recursos de integração, o Linux tem o potencial de
quebrar o monopólio da Microsoft nos computadores desktop;
»» Java, uma linguagem de programação orientada a objetos, tornou-se o ambiente de
programação principal para a Web e seu uso migrou para telefones celulares, carros,
tocadores de música e muito mais. Para cada um dos ambientes de computação em que
o Java é utilizado, a Sun criou uma máquina virtual Java que interpreta o código Java
de programação para essa máquina. Desta maneira, o código é escrito uma vez e pode
ser usado em qualquer máquina para a qual não existe uma máquina virtual Java. Um
PC Macintosh, um IBM PC com o Windows, um servidor Sun executando Unix, e até
mesmo um telefone celular inteligente ou assistente pessoal digital pode compartilhar
o mesmo aplicativo Java. Java é normalmente usado para criar programas pequenos
da Web chamados applets, mas também é uma linguagem robusta projetada para lidar
com textos, dados, gráficos, som e vídeo e permite que os usuários de PC manipulem
dados em sistemas de rede usando navegadores da Web, reduzindo a necessidade de
escrever software especializado;
»» Um navegador da Web é uma ferramenta de software fácil de usar, com uma
interface gráfica de usuário para exibir páginas da Web e para acessar a web e
outros recursos da Internet;
»» Software para integração empresarial é uma das prioridades mais urgentes hoje que
precisam integrar o software legado existente com a mais recente tecnologia. Substituição
dos sistemas isolados que não podem se comunicar com o software da empresa é uma
solução; no entanto, muitas empresas não podem simplesmente descartar aplicativos de
mainframe legados essenciais. Alguma integração pode ser alcançada por middleware,
software que cria uma interface ou uma ponte entre dois sistemas diferentes.

Figura 4: Software de Integração Empresarial – EAI contra a Integração Tradicional

14
»» Software EAI usa middleware especial que cria uma plataforma comum com a qual
todos os aplicativos podem se comunicar livremente uns com os outros. EAI exige
programação muito menor do que a integração ponto a ponto tradicional;

»» Serviços web, componentes de software de baixo acoplamento que usam padrões


de comunicação Web, podem trocar informações entre diferentes sistemas
independentemente do sistema operacional da linguagem de programação;

»» Tecnologia de serviços Web é fundada em XML, que foi desenvolvida como uma
linguagem de marcação mais poderosa do que a HTML, uma linguagem de descrição
de página especificando como o conteúdo aparece em páginas da web. Ao marcar
dados com tags XML, os computadores podem interpretar, manipular e trocar dados de
diferentes sistemas. Serviços Web se comunicam por mensagens XML via protocolos
padrão da Web, tais como:
• SOAP que é um conjunto de regras para a estruturação de mensagens que permite
que aplicativos passem dados e instruções para o outro;
• WSDL é um framework para descrever as tarefas realizadas por um serviço Web
e os comandos e dados que ele vai aceitar, de modo que ele possa ser usado por
outros aplicativos;
• UDDI permite que um serviço Web para ser listado em um diretório de serviços da
Web de modo que possa ser facilmente localizado.

Usando estes protocolos, um aplicativo de software pode se conectar livremente para


outras aplicações sem programação personalizada para cada aplicação diferente com o qual
deseja se comunicar.
A coleção de serviços da Web usados para construir sistemas de uma empresa de software
constitui uma arquitetura orientada a serviços SOA, que é uma maneira inteiramente nova de
desenvolvimento de software para uma empresa.
No passado, as aplicações eram separadas e foram escritas para diferentes divisões e tarefas
e não podiam se comunicar umas com as outras. Em um ambiente SOA, um único aplicativo
pode ser usado e reutilizado como um “serviço” que pode ser usado por outros serviços.
Por exemplo, um “serviço de fatura” pode ser o único programa escrito que a empresa
responsável para calcular as informações de fatura e relatórios utiliza.

TI Verde
Também chamada de computação verde, descreve o estudo e a utilização de recursos de informática
de uma forma eficiente. TI Verde começa com fabricantes produzindo produtos ecologicamente
corretos e incentivando os departamentos de TI das corporações a considerar opções mais amigáveis
como virtualização, gerenciamento de energia e hábitos de reciclagens adequadas.

15
Unidade: Fundamentos de Gestão de Infraestrutura de TI

O governo também propõem novas regras de conformidade que funcionarão para os centros
de dados com a futura certificação verde. Alguns critérios incluem a utilização de materiais de
baixa emissão de calor em sua produção (energia) e poluentes, reciclagem, uso de tecnologias
alternativas de energia e outras tecnologias tidas como verdes.
Todas as empresas estão cada vez mais dependentes da tecnologia e as empresas de pequeno
porte não são exceção. Nós trabalhamos em nossos computadores, notebooks e smartphones
durante todo o dia, conectados a servidores rodando 24 horas por 7 dias. Por ser o ciclo da
tecnologia tão rápido, estes dispositivos tornam-se obsoletos e, em algum momento – mais
frequentemente, mais cedo do que mais tarde – dispomos de equipamentos antigos e substituímos
por novos. Nós usamos grandes quantidades de papel e tinta para imprimir documentos.
Nesse processo, a maioria das empresas desperdiça recursos, na forma de energia, papel,
tempo e dinheiro, recursos que poderiam investir para desenvolver novos produtos ou serviços
ou para contratar e treinar funcionários. Mesmo que você não seja um ambientalista, é um bom
negócio para o seu ambiente de TI verde e cultura.

Em poucas palavras, TI Verde é composta de duas coisas:


»» Minimizar o impacto negativo do uso de tecnologia da informação no ambiente;
»» Utilizar a tecnologia de informação para ajudar a resolver problemas ambientais.

Como você pode ver, estas são quase duas áreas em polos opostos. Em nossa vida,
a tecnologia nos ajuda a fazer de tudo, desde enviar uma piada para nossos amigos por
email, ou avisar cidades sobre tsunamis e terremotos. Nós precisamos dela, e ela não vai
desaparecer tão cedo.
Por outro lado, um computador típico é composto de milhares de produtos químicos e se colocássemos
todos os computadores do mundo juntos, eles usariam grandes quantidades de eletricidade.
O computador contém mais de um Kg de chumbo e um verdadeiro coquetel de produtos
químicos, incluindo antimônio, arsênio, boro, fósforo, ácido nítrico, ácido fluorídrico e fluoreto
de hidrogênio, só para citar alguns.
Seu computador também é rico em recursos minerais: a eletrônica consome dez por cento da
produção mundial de ouro, dos quais apenas trinta por cento é recuperado a partir da sucata;
também usa muito cobre. Este coquetel tóxico e ineficiente é de onde o lixo eletrônico vem.
Isso é muito preocupante e tem a ver, principalmente, com a fome contínua da nossa
sociedade globalizada para novos componentes eletrônicos que nos lembra de que a Terra
têm recursos finitos.
Quando usamos minerais como ouro e prata e não recuperamos, esses minerais são deduzidos
da nossa oferta global. Eventualmente, as reservas vão ficar tão baixas que não vamos ter mais
esses recursos disponíveis, caso não reciclemos o que usamos.
Conforme estudos feitos pela Green IT, um computador desktop típico usa 868 kW de
eletricidade por ano. E praticamente todas as empresas no mundo desenvolvido tem um
computador de algum tipo. Muitas organizações têm milhares de computadores. Imagine o
seguinte: uma empresa com 20.000 computadores.

16
Se calcular as emissões de carbono de 20 mil computadores usando 868kW de eletricidade
por ano, equivale a 12.467 toneladas métricas de CO2, lembrando que a matriz energética
preponderante no mundo é carvão, que quando queima nas usinas gera esse gás também
conhecido como gás do efeito estufa. Essas emissões equivaleriam a:

»» Emissões anuais de gases de efeito estufa de 2.384 veículos de passageiros;


»» Emissões de 28.994 barris de petróleo;
»» Emissões do uso de eletricidade de 1.619 casas por um ano;
»» Carbono sequestrado por 2.658 hectares de florestas de pinheiros ou eucaliptos.

Trocando Ideias
Trata-se de apenas uma empresa. Em casa, a maioria das pessoas, nos países desenvolvidos, é
suscetível a ter um computador, uma console de jogos ou uma TV. E muitas vezes eles vão ter todos
os três, ou mesmo vários computadores e várias TVs.
Se tomarmos a população de um país de vinte milhões de pessoas e assumirmos que três quartos
dela têm pelo menos um computador, teremos 15.000.000 computadores usando 13.020.000.000
KW por ano. Essa eletricidade custa o equivalente a 935.049 toneladas métricas de CO2.

Virtualização
Quando as pessoas falam sobre virtualização, elas geralmente estão se referindo à
virtualização de servidores, o que significa o particionamento de um servidor físico em
vários servidores virtuais, ou máquinas virtuais. Cada máquina virtual pode interagir de
forma independente com outros dispositivos, aplicações, dados e usuários, como se fosse
um recurso físico separado.
Diferentes máquinas virtuais podem executar sistemas operacionais diferentes e múltiplas
aplicações ao compartilhar os recursos de um único computador físico. E, vez que cada
máquina virtual é isolada a partir de outras máquinas virtuais, se uma falha ocorrer, não
afetará as outras.

Hypervisor
É um software que torna a virtualização possível. Este software, também conhecido como
gerenciador de virtualização, fica entre o hardware e o sistema operacional, e desacopla o
sistema operacional e os aplicativos do hardware.

17
Unidade: Fundamentos de Gestão de Infraestrutura de TI

O hypervisor atribui a quantidade de acesso que os sistemas operacionais e aplicativos têm com
o processador e outros recursos de hardware, como memória e disco para operações de I/O.

Além de usar a tecnologia de virtualização de uma partição em diversas máquinas virtuais,


você também pode usar as soluções de virtualização para combinar múltiplos recursos físicos
em um único recurso virtual.

Um bom exemplo disso é a virtualização de armazenamento, na qual os recursos de


armazenamento de múltiplas redes são agrupados em algo que aparecerá como se fosse um
único dispositivo de armazenamento para o gerenciamento mais fácil e eficiente desses recursos.
Outros tipos de virtualização podem incluir também:

»» A virtualização de rede, que divide a largura de banda disponível na rede em canais


independentes que podem ser atribuídos a servidores ou dispositivos específicos;

»» A virtualização de aplicativos que separa aplicativos do hardware e do sistema


operacional, colocando-os em um recipiente que pode ser realocado sem interromper
outros sistemas;

»» A virtualização de desktops que permite que um servidor centralizado possa fornecer e


gerenciar desktops remotamente individualizados. Isso dá aos usuários uma experiência
de cliente completo, mas permite que a equipe de TI possa gerenciar, atualizar e corrigi-
los virtualmente, em vez de fisicamente.

A virtualização foi introduzida pela primeira vez na década de 60 do século XX, pela IBM,
para impulsionar a utilização de grandes sistemas de mainframe, dividindo-os em máquinas
lógicas virtuais separadas que podiam executar vários aplicativos e processos ao mesmo tempo.

Nos anos 80 e 90 do século passado, este modelo de mainframe centralizado, porém


compartilhado, deu lugar a um modelo de computação distribuída, cliente-servidor, em que
muitos servidores de baixo custo, tipo PC e desktops, poderiam executar de forma independente
outros aplicativos.

Embora a virtualização tenha desaparecido dos holofotes por um tempo, agora é uma das
tendências mais quentes da indústria. Como organizações, visam a aumentar a utilização,
flexibilidade e custo-efetividade em um ambiente de computação distribuída, sistemas de
virtualização como Citrix, IBM, Oracle, RedHat, Microsoft e VMWare e muitos outros fornecedores
oferecem soluções de virtualização.

É uma tecnologia considerada verde porque poupa dinheiro. Estimativas indicam que a
maioria dos servidores x86 estão funcionando a uma média de apenas 10 a 15 por cento da
capacidade total.

Com a virtualização, você pode transformar um servidor em uma plataforma multi-tasking, e


transformar vários servidores em um pool de computação que pode se adaptar de forma mais
flexível às cargas de trabalho em mudança na organização. Isso permite economizar energia, já que
as empresas gastam muito dinheiro alimentando a capacidade do servidor que não é utilizado.

18
A virtualização reduz o número de servidores físicos, reduzindo a energia necessária para alimentá-
los e arrefecê-los. Economiza tempo, porque com menos servidores, você pode gastar menos tempo
com as tarefas manuais necessárias para a manutenção deles. Por outro lado, reunindo muitos
dispositivos de armazenamento em um único de armazenamento virtual, você pode executar tarefas
como backup, arquivamento e recuperação mais fácil e mais rapidamente. É também muito mais
rápido implementar uma máquina virtual do que implantar um novo servidor físico.

Por fim, e não menos importante, você irá reduzir dores de cabeça de gerenciamento de desktop,
porque a gestão, segurança e atualização de desktops virtualizados permitem que você gerencie a
partir de um usuário central, tornando mais fácil para manter desktops atualizados e seguros.

Porém, a virtualização não é uma mágica que funciona para tudo. Embora muitas soluções de
softwares e aplicativos sejam grandes candidatas para serem executadas virtualmente, as aplicações
que necessitam de uma grande quantidade de memória, capacidade de processamento ou de I/O,
talvez seja melhor estar ainda hospedadas em um servidor dedicado.

Centro de Dados
O consumo de energia no centro de dados é predominantemente gasto por meio de duas fontes
principais: servidores e refrigeração. O aumento de densidade dos componentes dos servidores é o
problema. Uma pesquisa do Gartner mostrou que mais de 69% dos centros de dados estão limitados
pela tríade energia, refrigeração e espaço.

Servidores que consomem menos energia também geram menos calor, exigindo menos energia
para refrigeração. Abordagens alternativas, incluindo armazenamento de gelo e energia geotérmica,
ou até mesmo aceitar a geração de calor e focar diretamente na redução do custo de refrigeração do
data Center são medidas avaliadas nos dias de hoje.

O estado da arte neste nicho é impulsionada em rede de software de gestão de energia tanto para
storages, servers e também em outra categoria fora dos centros de dados, para desktops.

Estações de Trabalho
Considerar a implantação de estações de trabalho de thinclient. Os thinclients não emplacaram
como uma forma de reduzir os custos de hardware e manutenção, mas com os custos crescentes da
energia, isso adicionou um argumento de venda eficaz. Thinclients utilizam cerca de metade da
eletricidade de um PC desktop típicos.

SaaS (Software as a Service)


É o mais recente avanço na computação. Com aplicações SaaS, a programação e os dados
podem existir no servidor, em vez de seus computadores. Isso reduz o custo de compra de
software, reduz a demanda por computadores em seu site e reduz o consumo de energia. Alguns
exemplos de programas de SaaS são faturamento, folha de pagamento, e videoconferência.

19
Unidade: Fundamentos de Gestão de Infraestrutura de TI

E-Fax
Elimina a necessidade de aparelhos de fax papel e reduz a demanda de tinta e reduz a
conta de telefone.

Outros
Voz sobre IP ou VoIP reuniu recursos de voz e comunicação de dados com alguns benefícios
significativos. Entre eles, a redução da infraestrutura de cabeamento de telefonia e o custo da
operação contínua.
Hotelling reduz a metragem quadrada necessária por empregado, porque os trabalhadores
reservam o espaço somente quando eles precisam. Para muitos empregos como, vendas,
consultoria, serviços de campo, não requerem um escritório próprio gastando energia, iluminação
e refrigeração, usa-se apenas quando é preciso.
Teletrabalho é um conceito que está ganhando força no mundo todo, não só para a redução
de espaço, mas por que, de repente, as empresas estão pensando sobre as emissões causadas
pelos passageiros dos carros e ônibus que vão até o trabalho e voltam todos os dias. Tecnologias
de telefonia tornaram prática a operação de departamentos inteiros do lado de fora da empresa.

Planejamento de TI – PDTI
Jason Hiner, em 2011, num exercício junto a centenas de CIOs das empresas de tecnologia,
comentou em um grande seminário alguns itens que estão norteando estes profissionais chefes
da área de tecnologia da informação das empresas a se preocuparem e focarem seus esforços
nesses princípios. São eles:
»» A informação é tão importante, se não mais importante do que a tecnologia da informação;
»» Mais de 50% dos gastos anuais em projetos será direcionado para melhorar as condições
financeiras de uma empresa;
»» Mais de 50% de todas as informações da empresa e os gastos com TI devem apoiar
diretamente a geração das receitas ao invés de processos de despesas relacionadas
com negócios.

Também foram propostas as atividades que deveriam ser evitadas quando se faz um planejamento:
»» Rejeitar incompatibilidade anual entre as prioridades do CEO e é a maioria dos
projetos financiados;
»» Terminar o apoio de projetos que não vão melhorar a geração de receita;

20
»» Abandonar prioridades do CIO que não suportam diretamente as prioridades do CEO;
»» Parar de recomendar megaprojetos de TI;
»» Abolir ambiente de pouca ou nenhuma responsabilidade com gastos com TI;
»» Encerrar aplicativos existentes que não produzem valor mensurável ao negócio;
»» Erradicar a fobia a cloud computing;
»» Premiar os níveis 1, 2 e 3 de suporte técnico;
»» Parar de esperar projetos não financiados.

Plano Diretor de TI
Planejamento de Tecnologia da Informação é uma disciplina dentro da Tecnologia da
Informação que se preocupa em fazer o processo de planejamento de investimentos de
tecnologia da informação e da tomada de decisão de um processo mais rápido, mais flexível e
melhor alinhado.

O planejamento de TI tornou-se uma disciplina abrangente dentro do Planejamento


Estratégico, domínio em que a arquitetura empresarial o utiliza como um de seus vários recursos.

Há várias estratégias reconhecidas por oferecer capacidade de planejamento de tecnologia,


por exemplo:

»» Um repositório de dados de aplicativos: ferramentas de planejamento para


fornecer um inventário comum de dados de aplicativos, incluindo os custos, ciclos de
vida, e os proprietários, para que os planejadores tenham acesso fácil à informação que
impulsiona suas decisões;

»» Mapas de capacidade: servem para vincular as capacidades/recursos para os processos


críticos de negócio que eles suportam. Estas ferramentas de software fornecem uma
ferramenta gráfica que define claramente como as capacidades/recursos de negócios
estão ligadas aos esforços de TI;

»» Ferramentas de análise de Gap: juntamente com os mapas de capacidade e


ferramentas de planejamento, capturam as informações sobre o estado futuro das
capacidades/recursos de negócio como ditado pela estratégia de negócios. Usuários
aproveitam essa funcionalidade para identificar as áreas nas quais os recursos de TI
precisam ser constituídos, melhorados ou reduzidos;

»» Modelagem e capacidade analítica. Estas ferramentas permitem às equipes de


planejamento criar uma variedade de planos nos quais podem ser comparados e
verificados os prós, os contras e os riscos de cada um. Além disso, seu impacto sobre
a arquitetura e iniciativas em curso se tornam visível. Isso mantém planos, fornece
equipes com previsão de planejamento de forma holística e permite que a TI comunique
claramente seus planos e objetivos;

21
Unidade: Fundamentos de Gestão de Infraestrutura de TI

»» Ferramentas de relatórios: servem para orientar as decisões da equipe de


planejamento, por exemplo, as aplicações que têm capacidades redundantes, as que
não foram atualizadas, ou que sofrem com problemas de alto custo de manutenção.

O Plano Diretor de Tecnologia da Informação é um documento complexo de se elaborar


devido à sua multidisciplinaridade e investimentos com retorno dependente não apenas do
hardware, mas do software também.

Veja esta tabela a seguir para conhecer algumas das fases do PDTI:
Tabela 1: Fases e documentos componentes de um processo completo de construção de uma área de TI
antenada ao negócio da corporação no qual o PDTI é apenas o primeiro componente da segunda etapa.

Etapa 1
Missão e Macro Arquitetura de Operações
Metodologia
Arquitetura de Operação e objetos de Operação
Objetos de "Negócios" Arquitetura de Operação e objeto de Operação
Identificação das Macro Funções Planejadas para a Empresa
Etapa 2
Plano Diretor de Tecnologia de Informação
Arquitetura de Processos
Aplicações Estratégicas de Tecnologia de Informação
Workshop Informática Estratégica
Etapas do Trabalho de Pesquisa de usos estratégicos para a TI
Níveis de Sistemas a serem planejados
Arquitetura de Aplicações
Decomposições Primárias dos Processos Essenciais – Projeto Macro das Aplicações
Arquitetura de Dados – Metodologia para a Modelagem Corporativa de dados
Características Construtivas da Arquitetura de dados
Informações Gerenciais e de Integração
Componentes da Arquitetura Tecnológica
Arquitetura de Organização Componentes da Arquitetura Organizacional
Etapa 3
Programa de Implementação do Plano de Tecnologia
Planejamento Financeiro e Econômico do Plano de Tecnologia
Fonte: http://www.fj.com.br/consultoria-em-pdi.html

22
Partindo da grande padronização que esse assunto possui hoje e sua consolidação em
nosso país, peço a você, aluno, que acesse esse documento para a construção de um PDTI.
Após sua leitura, você estará apto a entender, criticar e desenvolver um Plano de TI ou
colaborar em seu desenvolvimento em sua organização. Ele foi elaborado pelo SEBRAE para
favorecer um arranjo produtivo local para pequenas e médias empresas proporcionando
diretrizes para a implementação da TI de forma segura. Por favor, acesse em: http://www.
fiec.org.br/artigos/tecnologia/PDTI.pdf
Também é fundamental a leitura do documento que trata de um Modelo de Referência
de Plano Diretor de Tecnologia da Informação, disponibilizado pelo consultor e professor
Geraldo Loureiro, num trabalho feito para o Ministério do Planejamento, Orçamento e Gestão
encomendado para a Secretaria de Logística e Tecnologia da Informação do Governo Federal.
Pode ser encontrado em: http://www.geraldoloureiro.com/wiki/images/d/da/Modelo_
Referencial_(PDTI).pdf

23
Unidade: Fundamentos de Gestão de Infraestrutura de TI

Material Complementar

Vejamos um contraponto sobre as corporações e seus esforços em se manterem vivas. Para


tanto, assista ao filme “A Corporação”. Eu o convido em:
»» http://www.youtube.com/watch?v=Zx0f_8FKMrY&feature=related;

Uma introdução curta e bem direcionada sobre COBIT em:


»» http://www.klebermota.eti.br/wp-content/uploads/Cobit.PDF;

Para dar apoio aos seus estudos, coloquei um link contendo 40 questões de um simulado
sobre COBIT:
»» http://www.ebah.com.br/content/ABAAABQq4AI/simulado-cobit-apostila-trainning;

Vídeo introdutório sobre governança de TI que vale a pena assistir em:


»» http://www.youtube.com/watch?v=5PazBQz7QnQ;

Vídeo sobre Governança de TI da Microsoft Technet. Apesar de longo, é excelente, em:


»» parte 1 - http://www.youtube.com/watch?v=-3Ow5VSpGTg&feature=related;
»» parte 2 - http://www.youtube.com/watch?gl=BR&hl=pt&v=1WblFx73g4E.

Vejamos um pouco mais sobre sustentabilidade nesse vídeo sensacional, “A história das
coisas”, disponível em:
»» http://www.youtube.com/watch?v=zlaiQwZ2Bto;

Veja também a história da água engarrafada no link:


»» http://www.youtube.com/watch?v=AM9G7RtXlFQ;

Problema de sustentabilidade abordados na história dos eletrônicos, disponível em:


»» https://www.youtube.com/watch?v=BZzxU46DBd8

Exemplo de um PDTI, documentação desenvolvida por um órgão federal, bastante


completo como referência, disponível em:
»» https://www.portalsof.planejamento.gov.br/bib/publicacoes/plano_diretor_de_
tecnologia_e_da_informacao1.pdf;
Outra referência interessante é este documento, que trata da definição da estratégia de
TI e contém perguntas chave para iniciar o PDTI: http://www.slideshare.net/TGTConsult/
plano-diretor-de-tecnologia-da-informao

24
Referências

GIARDINO, Andrea. Falta maturidade à infraestrutura de TI das grandes empresas no


Brasil, 2009, Computerworld. Disponível em: http://cio.uol.com.br/gestao/2009/09/24/falta-
maturidade-a-infraestrutura-de-ti-das-grandes-empresas-no-brasil/. Acesso em: 14 ago. 2012.

GIARDINO, Andrea. Accenture aponta quatro grandes desafios para os CIOs, 2009,
Computerworld, Disponível em: http://cio.uol.com.br/gestao/2009/05/21/accenture-aponta-
quatro-grandes-desafios-para-os-cios/. Acessado em: 14 ago. 2012.

Exemplo de um PDTI, documentação desenvolvida por um órgão federal, exemplo bastante


completo como referência. Disponível em: https://www.portalsof.planejamento.gov.br/bib/
publicacoes/plano_diretor_de_tecnologia_e_da_informacao1.pdf.

25
Unidade: Fundamentos de Gestão de Infraestrutura de TI

Anotações

26
www.cruzeirodosulvirtual.com.br
Campus Liberdade
Rua Galvão Bueno, 868
CEP 01506-000
São Paulo SP Brasil
Tel: (55 11) 3385-3000

Você também pode gostar