Escolar Documentos
Profissional Documentos
Cultura Documentos
da Informação
Material Teórico
Fundamentos de Gestão de Infraestrutura de TI
Revisão Textual:
Profa. Ms. Selma Aparecida Cesarin
Fundamentos de Gestão de Infraestrutura
de TI
• Introdução
• Componentes de Infraestrutura
• TI Verde
• Virtualização
• Planejamento de TI – PDTI
Este guia de estudo demonstra a forma de organizar suas atividades para cumprir os
propósitos da Disciplina online e objetiva salientar algumas informações importantes sobre
esta Unidade, bem como sobre o estudo online em si.
Primeiramente, é necessária a conscientização de que a exigência – tanto de estudo quanto
de avaliação – da disciplina online é, no mínimo, a mesma que a presencial.
Assim, é necessário organizar seu tempo para ler atentamente o material teórico e assistir os
vídeos, se houver, inclusive do material complementar.
Organize-se também de forma a não deixar para o último dia a realização das atividades de
sistematização (pontuada) e fórum (não pontuado). Podem ocorrer imprevistos e, encerrada
a Unidade, encerra-se a possibilidade de obter a nota relativa a cada atividade.
Especificamente quanto à Unidade 5, o objetivo são os fundamentos de gestão de
infraestrutura de tecnologia da informação e governança de tecnologia da informação com
COBIT®, além dos fundamentos da TI verde e de como este conceito está mudando o
mundo de forma permanente e economizando milhões de dólares em recursos.
5
Unidade: Fundamentos de Gestão de Infraestrutura de TI
Contextualização
Sustentabilidade da Gestâo de TI
A TI verde é a nova maneira de pensar em tecnologia não apenas na produção, mas também
nas soluções para problemas como lixo tecnológico e impactos ambientais.
Da Silva (2012) escreve ainda que, de acordo com o Greenpeace, as grandes potências
mundiais já aderiram não somente no desenvolvimento de legislação sobre sustentabilidade, mas
também no que tange à filosofia de reduzir custos empregando soluções mais limpas quanto à
fonte de energia, equipamentos mais econômicos, que geram menor calor entre outras técnicas.
Nosso país também já adotou, mas empresas admitem que o atrativo principal para as
políticas verdes ainda é a redução dos custos, o posicionamento da marca e a reputação.
Mais de 70% das empresas brasileiras adotaram os benefícios da TI verde; um exemplo é a
AmBev, que implantou o sistema da TI verde e reduziu custos, evitou o descarte de mais de 15
mil máquinas no período de 2002 a 2010 e aumentou a vida útil dos computadores.
Vamos entender o que isso significa e ver como empresas como, Unilever, Cemig, Fleury,
Natura, Banco Bradesco, Banco do Brasil e Petrobrás fazem.
6
Introdução
Adaptado de http://intranet.ibat.ie/
7
Unidade: Fundamentos de Gestão de Infraestrutura de TI
Os serviços que uma empresa é capaz de fornecer aos seus clientes, fornecedores e funcionários
é uma função direta de sua infraestrutura de TI. Idealmente, esta infraestrutura deve suportar
os negócios da empresa e estratégia de sistemas de informação e as novas tecnologias da
informação têm um forte impacto sobre negócios e estratégias de TI, bem como os serviços que
podem ser prestados aos clientes.
A infraestrutura pode ser vista como a tecnologia ou como grupos de serviços e podemos
entender como serviços aquilo prestado pelo hardware e software, plataformas de computação,
telecomunicações, gerenciamento de instalações físicas, software de aplicação, gerenciamento
de dados, gestão de TI, padrões de TI, TI educação, treinamento, pesquisa e desenvolvimento.
A infraestrutura vista como uma perspectiva de plataforma de serviços destaca o valor para
o negócio fornecido.
Observe: Figura 2: Histórico evolucionário da Infraestrutura de TI
8
Podemos perceber 5 estágios na evolução da infraestrutura. Na primeira figura, vemos um
conceito típico da máquina eletrônica de contabilidade entre os anos 30 e 50 do século XX,
que era a utilização de grandes máquinas pesadas com software residente no hardware para
classificação, inclusão e comunicação de dados.
Na figura seguinte, vemos grandes máquinas de propósito geral, conhecidas como mainframes
e mais adiante microcomputadores, a partir do final da década de 50 do século passado e
vigente até os dias de hoje.
A terceira figura mostra um computador pessoal cujo início remonta aos anos 80 do
século XX, com o PC da IBM amplamente utilizado pelas empresas americanas. Foram
criados para serem sistemas autônomos e somente na década de 1990 é que puderam ser
conectados em rede.
A quarta figura refere-se à era cliente/servidor, com computadores que usam dados do
computador servidor e com clientes em rede, estes servidores proveem os clientes com
serviços e capacidades.
Por fim, a última figura mostra que em uma rede cliente/servidor com várias camadas, pedidos
de clientes para o serviço são manipulados por diferentes níveis de servidores.
A partir daí, podemos imaginar uma variação dessa figura, que seria o que chamamos de
modelo empresa da internet que usa a tecnologia de rede para internet como o TCP/IP, que
permite às empresas vincular diferentes dispositivos e também as redes locais LANs.
9
Unidade: Fundamentos de Gestão de Infraestrutura de TI
Isso foi possível porque numa CPU construída nos dias de hoje cabem muito mais transistores
que as anteriores; fora isso, o custo baixou drasticamente. Para se ter uma ideia, um processador
Intel pode conter até 1 bilhão de transistores e pode ser fabricado em grandes volumes com
transistores que custam menos de 10-4 centavos a unidade. Isso é um pouco menor do que o
custo de um caractere impresso num livro.
No futuro, a nanotecnologia, usará átomos e moléculas para criar chips de computador
milhares de vezes menores do que as tecnologias atuais permitem.
Os nanotubos, que são minúsculos tubos, cerca de dez mil vezes mais finos que um cabelo
humano, consistem folhas enroladas de hexágonos de carbono. Foram descobertos na década
de 90 do século passado por pesquisadores da NEC, com usos potenciais como fios minúsculos
ou em dispositivos eletrônicos e o potencial de servirem como condutores muito poderosos de
corrente elétrica.
O postulado do armazenamento digital em massa é um tipo de “lei” que demonstra que
enquanto a quantidade de informação digital produzida no mundo dobra a cada ano, o custo
de armazenamento de informação digital está caindo a uma taxa exponencial.
Para termos ideia, entre os anos de 80 e 90 do século XX, as capacidades dos discos rígidos
para PCs cresceram a uma taxa de 25% de crescimento a cada ano; porém, depois dos anos 90,
o crescimento acelerou para mais de 65% a cada ano.
Outro fato está associado ao fator custo de armazenamento de dados, que vem declinando
exponencialmente desde os anos 50 do século passado. Desde o primeiro dispositivo de
armazenamento magnético, que foi utilizado em 1955, o custo de armazenamento de um
kilobyte de dados caiu de forma exponencial, dobrando a quantidade de armazenamento digital
para cada unidade monetária gasta a cada 15 meses em média.
A Lei Metcalf e Economia de Rede, na década de 1970, descrevia que o valor de uma
rede crescia exponencialmente conforme ocorria o aumento na adesão à rede. A demanda
por tecnologia da informação tem sido impulsionada pelo valor social e de negócios das
redes digitais, que rapidamente multiplicaram o número de ligações reais e potenciais entre os
membros da rede.
Outro fator complementar à lei Metcalf diz respeito aos custos em declínio, tanto das
comunicações, quanto da Internet.
Uma das razões para o crescimento da população da Internet é o rápido declínio na
ligação entre ela e os custos de comunicação em geral. O custo por kilobit de acesso à
Internet caiu, e modems a cabo agora entregam um kilobit de comunicação por um preço
de menos de 2 centavos.
Por fim, há o fator normas e efeitos de rede, que são padrões de tecnologia, especificações
que estabelecem a compatibilidade dos produtos e a capacidade de se comunicar em uma rede,
proporcionar poderosas economias de escala.
Algumas das normas, arquiteturas e empresas importantes que moldaram a infraestrutura
de TI incluem ASCII, UNIX, o TCP/IP, Ethernet, Apple, IBM, Microsoft, Intel, o computador
pessoal, e a www.
10
Componentes de Infraestrutura
11
Unidade: Fundamentos de Gestão de Infraestrutura de TI
12
Isso permite às outras, que usam este serviço, a reduzirem seus investimentos em infraestrutura
de TI, investindo apenas em poder de computação, tanto quanto necessário, em média,
e pagando por energia adicional. Este acordo oferece às empresas agilidade muito maior e
flexibilidade na sua infraestrutura.
Computação autonômica é um esforço da indústria para desenvolver sistemas que podem
configurar, otimizar, reparar e se proteger contra invasores e vírus. Software de proteção com
atualizações de vírus automáticas é um exemplo de computação autonômica.
Computação de Borda é um multi-tier, esquema de balanceamento de carga para aplicações
baseadas na Web, em que partes do conteúdo do site e de processamento são executadas
por servidores menores e mais econômicos. Em uma computação de borda, o cliente solicita
o fornecimento de conteúdo como apresentações estáticas, códigos reutilizáveis, enquanto
componentes de lógica de banco de dados e de negócios são entregues pelos servidores
localizados na empresa.
Empresas implantando centenas ou milhares de servidores, muitas descobriram que
estão gastando mais em eletricidade para alimentar e resfriar seus sistemas do que quando
adquiriram o hardware. O consumo de energia pode ser reduzido por meio da virtualização e
de processadores multicore.
Virtualização é o processo de apresentação de um conjunto de recursos de computação
(como poder de computação ou armazenamento de dados), para que possam ser acessados de
forma que não se restrinjam à configuração física ou localização geográfica.
Virtualização de servidores permite às empresas executarem mais de um sistema operacional
ao mesmo tempo, em uma única máquina. A maioria dos servidores é executada em apenas
10% a 15% da capacidade, e virtualização pode aumentar as taxas de utilização do servidor
para 70% por cento ou mais.
Um processador de vários núcleos é um circuito integrado que contém dois ou mais
processadores. Essa tecnologia permite que os motores de processamento de dois ou mais
processadores com as necessidades de energia e dissipação de calor reduzidos para realizar
tarefas mais rapidamente do que um chip de recursos simples, com um núcleo de processamento.
13
Unidade: Fundamentos de Gestão de Infraestrutura de TI
14
»» Software EAI usa middleware especial que cria uma plataforma comum com a qual
todos os aplicativos podem se comunicar livremente uns com os outros. EAI exige
programação muito menor do que a integração ponto a ponto tradicional;
»» Tecnologia de serviços Web é fundada em XML, que foi desenvolvida como uma
linguagem de marcação mais poderosa do que a HTML, uma linguagem de descrição
de página especificando como o conteúdo aparece em páginas da web. Ao marcar
dados com tags XML, os computadores podem interpretar, manipular e trocar dados de
diferentes sistemas. Serviços Web se comunicam por mensagens XML via protocolos
padrão da Web, tais como:
• SOAP que é um conjunto de regras para a estruturação de mensagens que permite
que aplicativos passem dados e instruções para o outro;
• WSDL é um framework para descrever as tarefas realizadas por um serviço Web
e os comandos e dados que ele vai aceitar, de modo que ele possa ser usado por
outros aplicativos;
• UDDI permite que um serviço Web para ser listado em um diretório de serviços da
Web de modo que possa ser facilmente localizado.
TI Verde
Também chamada de computação verde, descreve o estudo e a utilização de recursos de informática
de uma forma eficiente. TI Verde começa com fabricantes produzindo produtos ecologicamente
corretos e incentivando os departamentos de TI das corporações a considerar opções mais amigáveis
como virtualização, gerenciamento de energia e hábitos de reciclagens adequadas.
15
Unidade: Fundamentos de Gestão de Infraestrutura de TI
O governo também propõem novas regras de conformidade que funcionarão para os centros
de dados com a futura certificação verde. Alguns critérios incluem a utilização de materiais de
baixa emissão de calor em sua produção (energia) e poluentes, reciclagem, uso de tecnologias
alternativas de energia e outras tecnologias tidas como verdes.
Todas as empresas estão cada vez mais dependentes da tecnologia e as empresas de pequeno
porte não são exceção. Nós trabalhamos em nossos computadores, notebooks e smartphones
durante todo o dia, conectados a servidores rodando 24 horas por 7 dias. Por ser o ciclo da
tecnologia tão rápido, estes dispositivos tornam-se obsoletos e, em algum momento – mais
frequentemente, mais cedo do que mais tarde – dispomos de equipamentos antigos e substituímos
por novos. Nós usamos grandes quantidades de papel e tinta para imprimir documentos.
Nesse processo, a maioria das empresas desperdiça recursos, na forma de energia, papel,
tempo e dinheiro, recursos que poderiam investir para desenvolver novos produtos ou serviços
ou para contratar e treinar funcionários. Mesmo que você não seja um ambientalista, é um bom
negócio para o seu ambiente de TI verde e cultura.
Como você pode ver, estas são quase duas áreas em polos opostos. Em nossa vida,
a tecnologia nos ajuda a fazer de tudo, desde enviar uma piada para nossos amigos por
email, ou avisar cidades sobre tsunamis e terremotos. Nós precisamos dela, e ela não vai
desaparecer tão cedo.
Por outro lado, um computador típico é composto de milhares de produtos químicos e se colocássemos
todos os computadores do mundo juntos, eles usariam grandes quantidades de eletricidade.
O computador contém mais de um Kg de chumbo e um verdadeiro coquetel de produtos
químicos, incluindo antimônio, arsênio, boro, fósforo, ácido nítrico, ácido fluorídrico e fluoreto
de hidrogênio, só para citar alguns.
Seu computador também é rico em recursos minerais: a eletrônica consome dez por cento da
produção mundial de ouro, dos quais apenas trinta por cento é recuperado a partir da sucata;
também usa muito cobre. Este coquetel tóxico e ineficiente é de onde o lixo eletrônico vem.
Isso é muito preocupante e tem a ver, principalmente, com a fome contínua da nossa
sociedade globalizada para novos componentes eletrônicos que nos lembra de que a Terra
têm recursos finitos.
Quando usamos minerais como ouro e prata e não recuperamos, esses minerais são deduzidos
da nossa oferta global. Eventualmente, as reservas vão ficar tão baixas que não vamos ter mais
esses recursos disponíveis, caso não reciclemos o que usamos.
Conforme estudos feitos pela Green IT, um computador desktop típico usa 868 kW de
eletricidade por ano. E praticamente todas as empresas no mundo desenvolvido tem um
computador de algum tipo. Muitas organizações têm milhares de computadores. Imagine o
seguinte: uma empresa com 20.000 computadores.
16
Se calcular as emissões de carbono de 20 mil computadores usando 868kW de eletricidade
por ano, equivale a 12.467 toneladas métricas de CO2, lembrando que a matriz energética
preponderante no mundo é carvão, que quando queima nas usinas gera esse gás também
conhecido como gás do efeito estufa. Essas emissões equivaleriam a:
Trocando Ideias
Trata-se de apenas uma empresa. Em casa, a maioria das pessoas, nos países desenvolvidos, é
suscetível a ter um computador, uma console de jogos ou uma TV. E muitas vezes eles vão ter todos
os três, ou mesmo vários computadores e várias TVs.
Se tomarmos a população de um país de vinte milhões de pessoas e assumirmos que três quartos
dela têm pelo menos um computador, teremos 15.000.000 computadores usando 13.020.000.000
KW por ano. Essa eletricidade custa o equivalente a 935.049 toneladas métricas de CO2.
Virtualização
Quando as pessoas falam sobre virtualização, elas geralmente estão se referindo à
virtualização de servidores, o que significa o particionamento de um servidor físico em
vários servidores virtuais, ou máquinas virtuais. Cada máquina virtual pode interagir de
forma independente com outros dispositivos, aplicações, dados e usuários, como se fosse
um recurso físico separado.
Diferentes máquinas virtuais podem executar sistemas operacionais diferentes e múltiplas
aplicações ao compartilhar os recursos de um único computador físico. E, vez que cada
máquina virtual é isolada a partir de outras máquinas virtuais, se uma falha ocorrer, não
afetará as outras.
Hypervisor
É um software que torna a virtualização possível. Este software, também conhecido como
gerenciador de virtualização, fica entre o hardware e o sistema operacional, e desacopla o
sistema operacional e os aplicativos do hardware.
17
Unidade: Fundamentos de Gestão de Infraestrutura de TI
O hypervisor atribui a quantidade de acesso que os sistemas operacionais e aplicativos têm com
o processador e outros recursos de hardware, como memória e disco para operações de I/O.
A virtualização foi introduzida pela primeira vez na década de 60 do século XX, pela IBM,
para impulsionar a utilização de grandes sistemas de mainframe, dividindo-os em máquinas
lógicas virtuais separadas que podiam executar vários aplicativos e processos ao mesmo tempo.
Embora a virtualização tenha desaparecido dos holofotes por um tempo, agora é uma das
tendências mais quentes da indústria. Como organizações, visam a aumentar a utilização,
flexibilidade e custo-efetividade em um ambiente de computação distribuída, sistemas de
virtualização como Citrix, IBM, Oracle, RedHat, Microsoft e VMWare e muitos outros fornecedores
oferecem soluções de virtualização.
É uma tecnologia considerada verde porque poupa dinheiro. Estimativas indicam que a
maioria dos servidores x86 estão funcionando a uma média de apenas 10 a 15 por cento da
capacidade total.
18
A virtualização reduz o número de servidores físicos, reduzindo a energia necessária para alimentá-
los e arrefecê-los. Economiza tempo, porque com menos servidores, você pode gastar menos tempo
com as tarefas manuais necessárias para a manutenção deles. Por outro lado, reunindo muitos
dispositivos de armazenamento em um único de armazenamento virtual, você pode executar tarefas
como backup, arquivamento e recuperação mais fácil e mais rapidamente. É também muito mais
rápido implementar uma máquina virtual do que implantar um novo servidor físico.
Por fim, e não menos importante, você irá reduzir dores de cabeça de gerenciamento de desktop,
porque a gestão, segurança e atualização de desktops virtualizados permitem que você gerencie a
partir de um usuário central, tornando mais fácil para manter desktops atualizados e seguros.
Porém, a virtualização não é uma mágica que funciona para tudo. Embora muitas soluções de
softwares e aplicativos sejam grandes candidatas para serem executadas virtualmente, as aplicações
que necessitam de uma grande quantidade de memória, capacidade de processamento ou de I/O,
talvez seja melhor estar ainda hospedadas em um servidor dedicado.
Centro de Dados
O consumo de energia no centro de dados é predominantemente gasto por meio de duas fontes
principais: servidores e refrigeração. O aumento de densidade dos componentes dos servidores é o
problema. Uma pesquisa do Gartner mostrou que mais de 69% dos centros de dados estão limitados
pela tríade energia, refrigeração e espaço.
Servidores que consomem menos energia também geram menos calor, exigindo menos energia
para refrigeração. Abordagens alternativas, incluindo armazenamento de gelo e energia geotérmica,
ou até mesmo aceitar a geração de calor e focar diretamente na redução do custo de refrigeração do
data Center são medidas avaliadas nos dias de hoje.
O estado da arte neste nicho é impulsionada em rede de software de gestão de energia tanto para
storages, servers e também em outra categoria fora dos centros de dados, para desktops.
Estações de Trabalho
Considerar a implantação de estações de trabalho de thinclient. Os thinclients não emplacaram
como uma forma de reduzir os custos de hardware e manutenção, mas com os custos crescentes da
energia, isso adicionou um argumento de venda eficaz. Thinclients utilizam cerca de metade da
eletricidade de um PC desktop típicos.
19
Unidade: Fundamentos de Gestão de Infraestrutura de TI
E-Fax
Elimina a necessidade de aparelhos de fax papel e reduz a demanda de tinta e reduz a
conta de telefone.
Outros
Voz sobre IP ou VoIP reuniu recursos de voz e comunicação de dados com alguns benefícios
significativos. Entre eles, a redução da infraestrutura de cabeamento de telefonia e o custo da
operação contínua.
Hotelling reduz a metragem quadrada necessária por empregado, porque os trabalhadores
reservam o espaço somente quando eles precisam. Para muitos empregos como, vendas,
consultoria, serviços de campo, não requerem um escritório próprio gastando energia, iluminação
e refrigeração, usa-se apenas quando é preciso.
Teletrabalho é um conceito que está ganhando força no mundo todo, não só para a redução
de espaço, mas por que, de repente, as empresas estão pensando sobre as emissões causadas
pelos passageiros dos carros e ônibus que vão até o trabalho e voltam todos os dias. Tecnologias
de telefonia tornaram prática a operação de departamentos inteiros do lado de fora da empresa.
Planejamento de TI – PDTI
Jason Hiner, em 2011, num exercício junto a centenas de CIOs das empresas de tecnologia,
comentou em um grande seminário alguns itens que estão norteando estes profissionais chefes
da área de tecnologia da informação das empresas a se preocuparem e focarem seus esforços
nesses princípios. São eles:
»» A informação é tão importante, se não mais importante do que a tecnologia da informação;
»» Mais de 50% dos gastos anuais em projetos será direcionado para melhorar as condições
financeiras de uma empresa;
»» Mais de 50% de todas as informações da empresa e os gastos com TI devem apoiar
diretamente a geração das receitas ao invés de processos de despesas relacionadas
com negócios.
Também foram propostas as atividades que deveriam ser evitadas quando se faz um planejamento:
»» Rejeitar incompatibilidade anual entre as prioridades do CEO e é a maioria dos
projetos financiados;
»» Terminar o apoio de projetos que não vão melhorar a geração de receita;
20
»» Abandonar prioridades do CIO que não suportam diretamente as prioridades do CEO;
»» Parar de recomendar megaprojetos de TI;
»» Abolir ambiente de pouca ou nenhuma responsabilidade com gastos com TI;
»» Encerrar aplicativos existentes que não produzem valor mensurável ao negócio;
»» Erradicar a fobia a cloud computing;
»» Premiar os níveis 1, 2 e 3 de suporte técnico;
»» Parar de esperar projetos não financiados.
Plano Diretor de TI
Planejamento de Tecnologia da Informação é uma disciplina dentro da Tecnologia da
Informação que se preocupa em fazer o processo de planejamento de investimentos de
tecnologia da informação e da tomada de decisão de um processo mais rápido, mais flexível e
melhor alinhado.
21
Unidade: Fundamentos de Gestão de Infraestrutura de TI
Veja esta tabela a seguir para conhecer algumas das fases do PDTI:
Tabela 1: Fases e documentos componentes de um processo completo de construção de uma área de TI
antenada ao negócio da corporação no qual o PDTI é apenas o primeiro componente da segunda etapa.
Etapa 1
Missão e Macro Arquitetura de Operações
Metodologia
Arquitetura de Operação e objetos de Operação
Objetos de "Negócios" Arquitetura de Operação e objeto de Operação
Identificação das Macro Funções Planejadas para a Empresa
Etapa 2
Plano Diretor de Tecnologia de Informação
Arquitetura de Processos
Aplicações Estratégicas de Tecnologia de Informação
Workshop Informática Estratégica
Etapas do Trabalho de Pesquisa de usos estratégicos para a TI
Níveis de Sistemas a serem planejados
Arquitetura de Aplicações
Decomposições Primárias dos Processos Essenciais – Projeto Macro das Aplicações
Arquitetura de Dados – Metodologia para a Modelagem Corporativa de dados
Características Construtivas da Arquitetura de dados
Informações Gerenciais e de Integração
Componentes da Arquitetura Tecnológica
Arquitetura de Organização Componentes da Arquitetura Organizacional
Etapa 3
Programa de Implementação do Plano de Tecnologia
Planejamento Financeiro e Econômico do Plano de Tecnologia
Fonte: http://www.fj.com.br/consultoria-em-pdi.html
22
Partindo da grande padronização que esse assunto possui hoje e sua consolidação em
nosso país, peço a você, aluno, que acesse esse documento para a construção de um PDTI.
Após sua leitura, você estará apto a entender, criticar e desenvolver um Plano de TI ou
colaborar em seu desenvolvimento em sua organização. Ele foi elaborado pelo SEBRAE para
favorecer um arranjo produtivo local para pequenas e médias empresas proporcionando
diretrizes para a implementação da TI de forma segura. Por favor, acesse em: http://www.
fiec.org.br/artigos/tecnologia/PDTI.pdf
Também é fundamental a leitura do documento que trata de um Modelo de Referência
de Plano Diretor de Tecnologia da Informação, disponibilizado pelo consultor e professor
Geraldo Loureiro, num trabalho feito para o Ministério do Planejamento, Orçamento e Gestão
encomendado para a Secretaria de Logística e Tecnologia da Informação do Governo Federal.
Pode ser encontrado em: http://www.geraldoloureiro.com/wiki/images/d/da/Modelo_
Referencial_(PDTI).pdf
23
Unidade: Fundamentos de Gestão de Infraestrutura de TI
Material Complementar
Para dar apoio aos seus estudos, coloquei um link contendo 40 questões de um simulado
sobre COBIT:
»» http://www.ebah.com.br/content/ABAAABQq4AI/simulado-cobit-apostila-trainning;
Vejamos um pouco mais sobre sustentabilidade nesse vídeo sensacional, “A história das
coisas”, disponível em:
»» http://www.youtube.com/watch?v=zlaiQwZ2Bto;
24
Referências
GIARDINO, Andrea. Accenture aponta quatro grandes desafios para os CIOs, 2009,
Computerworld, Disponível em: http://cio.uol.com.br/gestao/2009/05/21/accenture-aponta-
quatro-grandes-desafios-para-os-cios/. Acessado em: 14 ago. 2012.
25
Unidade: Fundamentos de Gestão de Infraestrutura de TI
Anotações
26
www.cruzeirodosulvirtual.com.br
Campus Liberdade
Rua Galvão Bueno, 868
CEP 01506-000
São Paulo SP Brasil
Tel: (55 11) 3385-3000