Você está na página 1de 111

Aula 03 – Business Intelligence

Curso: TI paraS Área Fiscal


Professor: Ramon Souza
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Aula 03 – Business Intelligence (BI): Data Warehouse, modelagem


multidimensional, OLAP e ETL.

ASSUNTOS PÁGINA

1. INTRODUÇÃO À BUSINESS INTELLIGENCE E DATA WAREHOUSE .......... 4


1.1 Conceitos e aplicações ....................................................................... 4
1.2 Data Warehouse ............................................................................... 7
1.3 Processo de Data Warehousing ......................................................... 10
1.4 Arquiteturas de Data Warehousing .................................................... 11
1.5 Abordagens de desenvolvimento de Data Warehouse........................... 12
2. MODELAGEM DIMENSIONAL .......................................................... 14
2.1 Noções de Modelagem dimensional.................................................... 14
2.2 Tabelas fato e tabelas dimensão ....................................................... 16
2.3 Tipos de tabelas fato ....................................................................... 21
2.4 Esquemas multidimensionais ............................................................ 26
2.5 As 10 Regras Essenciais para a Modelagem de Dados Dimensional ........ 31
3. OLAP .......................................................................................... 33
3.1 Análise de dados em um ambiente dimensional com OLAP ................... 33
3.2 Tipos ou variações OLAP .................................................................. 35
3.3 Operações OLAP.............................................................................. 38
4. ETL ............................................................................................. 45
5. QUESTÕES COMENTADAS ............................................................. 48
6. RISCO EXPONENCIAL.................................................................... 81
7. LISTAS DE EXERCÍCIOS ................................................................ 90
8. GABARITO ..................................................................................111
9. REFERÊNCIAS .............................................................................111

Prof. Ramon Souza 2 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Para facilitar sua referência, abaixo listamos as esquematizações desta aula:


Esquema 1 – Arquitetura de BI. ........................................................................................ 5
Esquema 2 – Data Warehouse (DW). ................................................................................. 7
Esquema 3 – Processo de Data Warehousing. .................................................................... 10
Esquema 4 – Arquiteturas de Data Warehouse. ................................................................. 11
Esquema 5 – Abordagens de desenvolvimento de um DW. .................................................. 12
Esquema 6 – Modelagem dimensional. ............................................................................. 15
Esquema 7 – Tabelas fato e tabelas dimensão. .................................................................. 19
Esquema 8 – Tipos de tabelas fatos. ................................................................................ 23
Esquema 9 – Esquemas multidimensionais. ....................................................................... 29
Esquema 10 – OLTP x OLAP. ........................................................................................... 33
Esquema 11 – Variações OLAP. ........................................................................................ 36
Esquema 12 – Operações OLAP. ...................................................................................... 42
Esquema 13 – Processo de ETL. ....................................................................................... 46

Prof. Ramon Souza 3 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

1. INTRODUÇÃO À BUSINESS INTELLIGENCE E DATA WAREHOUSE

1.1 Conceitos e aplicações


A mudança no ambiente organizacional força as organizações a serem
mais ágeis e a tomarem frequentes decisões estratégicas e operacionais. Essas
decisões requerem consideráveis dados, informações e conhecimento, exigindo
processamento em tempo real e com considerável suporte computacional.
Estas mudanças no ambiente organizacional, o crescente poder de
processamento e sofisticação das ferramentas e técnicas analíticas foram
acompanhadas de uma grande demanda para melhorar o desempenho de
acesso aos dados dos bancos de dados.
Neste contexto, atualmente, existe uma grande necessidade de oferecer
aos que tomam decisões, da gerência intermediária para cima, informações no
nível correto de detalhe para dar suporte à atividade de tomada de decisão.
Com esse objetivo, surgem o Data Warehousing, o processamento analítico on-
line (OLAP) e a mineração de dados, que estão inseridos em no contexto dos
sistemas de suporte à decisão ou Business Intelligence (BI).

Vejamos inicialmente do que se trata o BI.

O termo Business Intelligence (BI) é um conceito guarda-chuva que


combina arquitetura, ferramentas, bancos de dados, ferramentas
analíticas, aplicações e metodologias com os objetivos de habilitar o
acesso interativo aos dados, habilitar a manipulação desses dados e
prover aos gerentes de negócios e analistas a habilidade de conduzir
análises apropriadas.

Para Turban, um sistema de BI é composto por quatro componentes:


❖ Data Warehouse: constitui a pedra angular de um sistema de BI; é
o repositório de dados atuais e históricos de potencial interesse
para gestores de toda a organização.

❖ Business Analytics ou análise de negócios: variedade de


ferramentas e técnicas para trabalhar dados e informações.
Inclui:
o (1) Relatórios e consultas;
o (2) Dados, texto, mineração e ferramentas estatísticas;

Prof. Ramon Souza 4 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

❖ Business Process Management (BPM), Corporate Performance


Management (COM) ou Gerenciamento de Desempenho de
Negócio: portfólio de aplicações e metodologias que contém a
evolução da arquitetura e ferramentas de BI. Ampliam o
monitoramento, medição e comparação de indicadores de
desempenho e abrangem processos de planejamento e previsão.

❖ User Interface ou interfaces de usuário: fornecem a visualização


de dados para os gestores. Como exemplos dessas ferramentas,
temos:
o Dashboards (painéis);
o Portais corporativos, cockpits e outras ferramentas de
visualização;
o Sistemas de Informações Geográficas (SIG).

A arquitetura de BI pode ser sintetizada pelo esquema a seguir.

Business Intelligence
Combina arquitetura, ferramentas, bancos de dados, ferramentas analíticas,
aplicações e metodologias com os objetivos de habilitar o acesso interativo aos
dados, habilitar a manipulação desses dados e prover aos gerentes de negócios e
analistas a habilidade de conduzir análises apropriadas

Business Process
Data Warehouse Business Analytics Management User Interface
(BPM)

Ampliam o Fornecem a
Repositório de dados Variedade de
monitoramento, visualização de
atuais e históricos de ferramentas e
medição e dados para os
potencial interesse técnicas para
comparação de gestores. Ex.:
para gestores de toda trabalhar dados e
indicadores de dashboars, cockpits,
a organização. informações.
desempenho. portais.

Esquema 1 – Arquitetura de BI.

Prof. Ramon Souza 5 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

1- (CESPE - 2019 - SEFAZ-RS - Auditor Fiscal da


Receita Estadual - Bloco I) A respeito do BI (business intelligence), assinale
a opção correta.
a) O BI consiste na transformação metódica e consciente das informações
exclusivamente prestadas pelos tomadores de decisão em novas formas de
conhecimento, para evolução dos negócios e dos resultados organizacionais.
b) ETL é o processo de análise de dados previsto pela arquitetura de BI.
c) As técnicas do BI objetivam definir regras para a formatação adequada dos
dados, com vista a sua transformação em depósitos estruturados de
informações, sem considerar a sua origem.
d) O repositório de dados analíticos de BI é representado pelas diversas bases
de dados relacionais e por repositórios de dados que utilizem modelagens
relacionais.
e) A camada de apresentação de uma arquitetura de BI é aquela em que as
informações são organizadas e centralizadas.
Resolução:
Vamos comentar os itens:
a) Incorreto: as informações tratadas pelo BI não são exclusivamente
prestadas pelos tomadores de decisão, mas sim provenientes de diversas
fontes.
b) Incorreto: ETL é o processo de Extração, Transformação e Carga dos dados
para o ambiente de BI. Para análise são usadas outras ferramentas, como OLAP
e Data Mining.
c) Correto: A pedra angular do BI é o Data Warehouse, que centraliza dados
de diversas fontes em uma estrutura multidimensional (tabelas fato e tabelas
dimensão).
d) Incorreto: O repositório no ambiente de BI é o Data Warehouse, que utiliza
o modelo multidimensional e não o modelo relacional.
e) Incorreto: A camada de apresentação é a utilizada para fornecer a
visualização de dados para os gestores. Como exemplos dessas ferramentas,
temos: Dashboards (painéis); Portais corporativos, cockpits e outras
ferramentas de visualização; Sistemas de Informações Geográficas (SIG). Os
dados são organizados e centralizados a partir do uso de ETL.
Gabarito: Letra C.

Prof. Ramon Souza 6 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

1.2 Data Warehouse


Sendo o Data Warehouse (armazém de dados) a pedra angular de
um sistema de Business Intelligence, vamos detalhá-lo um pouco mais.
Os Data Warehouses oferecem armazenamento, funcionalidade e
responsividade às consultas além das capacidades dos bancos de dados
orientados à transação, servindo principalmente para aplicações de apoio a
decisão; são otimizados para recuperação de dados, e não para o
processamento de transação de rotina; oferecem acesso a dados para análise
complexa, descoberta de conhecimento e tomada de decisão; e dão suporte a
demandas de alto desempenho sobre os dados e informações.
Um Data Warehouse (DW) é um conjunto de dados produzidos
para apoiar a tomada de decisão, ou um repositório de dados atuais e
históricos de potencial interesse para gestores de toda a organização.
Para Inmon, um Data Warehouse é uma coleção de dados orientada
a assunto, integrada, não volátil, variável no tempo para suporte às
decisões da gerência. Vejamos estas características de modo mais detalhado:
❖ Orientado a assunto: os dados armazenados em um DW são
organizados por assunto, tratando de temas específicos e importantes
para o negócio da organização.

❖ Integrados: o DW é um depósito de dados integrados de múltiplas


fontes, processados para armazenamento em um modelo
multidimensional.

❖ Variante no tempo: um DW mantém os dados históricos, permitindo


a detecção de tendências, desvios e relações de longo prazo para
previsões e comparações.

❖ Não voláteis: depois que os dados são inseridos em um DW, os


usuários não podem modificá-los ou atualizá-los. De modo geral, são
permitidas apenas operações de carga e consulta.

De forma esquemática, temos:

Conjunto de dados Repositório de dados atuais e


produzidos para apoiar a Data Warehouse históricos de potencial interesse
tomada de decisão. para gestores de toda a organização.

Orientados a
Integrados Variante no tempo Não voláteis
assunto

Esquema 2 – Data Warehouse (DW).

Prof. Ramon Souza 7 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

DÚVIDAS E POLÊMICAS

A carga de dados em um Data Warehouse é realizada apenas


inicialmente ou pode ser realizada de forma periódica?

Caros, um cuidado importante deve ser tomado para a interpretação de algumas


questões sobre a carga dos dados, pois algumas questões afirmam que a carga
só é realizada uma vez e outras afirmam que a carga pode ser realizada de
forma periódica.

Vejamos:

((FCC - 2015 - TRT - 4ª REGIÃO (RS) - Analista Judiciário


- Tecnologia da Informação))
d) o Data Warehouse não é volátil, permite apenas a carga inicial dos dados e
consultas a estes dados. Além disso, os dados nele armazenados são precisos
em relação ao tempo, não podendo ser atualizados.
Gabarito: Letra D.

(FCC - 2016 - Prefeitura de Teresina - PI - Analista


Tecnológico - Analista de Suporte Técnico) O processo ETL é uma etapa
importante no projeto de um data warehouse. No processo ETL,

e) um intervalo possível para a carga periódica de dados no data warehouse é


de 24 horas.
Gabarito: Letra E.

Caros, a diferença entre as duas questões é de interpretação:

Na primeira, ela está fazendo alusão justamente a característica da não


volatilidade, logo é permissivo aceitar que o DW permite apenas a carga inicial
de dados, pois essa restrição se refere a impossibilidade de alteração.

Já na segunda, embora pareça estranho, as cargas periódicas não ferem a


característica da não volatilidade, pois estas cargas são de novos dados e não
para alteração dos dados.

Prof. Ramon Souza 8 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

2- (FCC - 2018 - DPE-AM - Analista em Gestão


Especializado de Defensoria - Analista de Banco de Dados) Uma das
características fundamentais de um ambiente de data warehouse está em
a) servir como substituto aos bancos de dados operacionais de uma empresa,
na eventualidade da ocorrência de problemas com tais bancos de dados.
b) ser de utilização exclusiva da área de aplicações financeiras das empresas.
c) proporcionar um ambiente que permita realizar análise dos negócios de uma
empresa com base nos dados por ela armazenados.
d) ser de uso prioritário de funcionários responsáveis pela área de telemarketing
das empresas.
e) armazenar apenas os dados mais atuais (máximo de 3 meses de criação),
independentemente da área de atuação de cada empresa.
Resolução:
Vamos analisar cada uma das alternativas:
a) Incorreto: O DW não possui a finalidade de substituir os bancos de dados
operacionais da empresa. Uma das características do DW é a integração, sendo
ele um depósito de dados integrados de múltiplas fontes (que podem ser
inclusive os bancos de dados operacionais da empresa), processados para
armazenamento em um modelo multidimensional.
b) Incorreto: O objetivo do DW é apoiar a tomada de decisão dos gestores
organizacionais e, portanto, pode ser utilizado por diversas áreas e não somente
pela área financeira.
c) Correto: proporcionar um ambiente que permita realizar análise dos
negócios de uma empresa com base nos dados por ela armazenados.
d) Incorreto: O objetivo do DW é apoiar a tomada de decisão dos gestores
organizacionais e, portanto, pode ser utilizado por diversas áreas e não somente
pela área de telemarketing.
e) Incorreto: O DW é um repositório de dados atuais e históricos de
potencial interesse para gestores de toda a organização.
Gabarito: Letra C.

Prof. Ramon Souza 9 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

1.3 Processo de Data Warehousing


De forma mais geral, podemos falar no processo de Data Warehousing
para nos referir a uma coleção de tecnologias de apoio à decisão, visando
a habilitar a tomada de decisões melhores e mais rápidas. Este processo inclui
as ferramentas de ETL (extração, transformação e carga) para realizar a limpeza
e formatação dos dados carregados de múltiplas fontes. Inclui também OLAP,
mineração de dados e DSS (sistemas de suporte à decisão) para gerar
informações importante com base nos dados do DW.
O processo de Data Warehousing é representado na figura a seguir,
adaptada de Turban.

Esquema 3 – Processo de Data Warehousing.

Podemos notar a característica de integração do DW, uma vez que as


fontes de dados (data sources) são diversas, podendo ser sistemas
legados, sistemas de gestão empresarial, dados da web ou dados externos.
O processo de ETL (extração, transformação e carga) é responsável
por trazer os dados para o DW de forma organizada, realizando a extração
desses dados de suas fontes, efetuando a limpeza ou ajustes desses dados e
carregando-os para o armazém de dados. Os dados são carregados para uma
área de preparação (staging area).
O EDW (Banco de Dados Abrangente) é o repositório central utilizado
para suportar todas as análises de decisões. Podem ser armazenados também
os metadados referentes aos dados do EDW.
Dependendo da abordagem utilizada, os Data Marts são utilizados para
armazenar subconjunto de dados dos DW, abrangendo uma determinada área
de assunto ou departamento da organização.
As ferramentas de middleware permitem o acesso ao DW. Entre estas
ferramentas, destacam-se a OLAP e a mineração de dados (data mining).

Prof. Ramon Souza 10 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

1.4 Arquiteturas de Data Warehousing


Do ponto de vista arquitetural, os Data Warehouses podem ser projetados
para armazenar todos os dados em um único repositório (EDW – Enterprise-
Wide Data Warehouse) ou em repositórios menores divididos por assuntos
ou departamentos (DM - Data Marts). Há, ainda, algumas alternativas a estes
tipos básicos que não são nem EDW puros nem DM puros.
A figura a seguir, adaptada de Turban, resume as arquiteturas para DW.

Esquema 4 – Arquiteturas de Data Warehouse.

Prof. Ramon Souza 11 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

1.5 Abordagens de desenvolvimento de Data Warehouse


Para criar os data warehouses, as organizações podem optar por uma de
duas abordagens concorrentes.
❖ Abordagem EDW ou de Bill Inmon: abordagem de
desenvolvimento de cima para baixo (top-down) que adapta
metodologias e ferramentas de banco de dados relacionais
tradicionais às necessidades de desenvolvimento de um data
warehouse de toda a empresa. Nesta abordagem, primeiramente é
construído o Data Warehouse, modelando toda a empresa para se
chegar a um único modelo corporativo, partindo posteriormente
para os Data Marts construídos por assuntos ou departamentais.

❖ Abordagem de Data Mart ou de Ralph Kimball: abordagem de


baixo para cima (bottom-up) que emprega modelagem
dimensional. Baseia-se na ideia de “plano grande, construção
pequena” ou “dividir para conquistar”, isto é, o mais viável para as
empresas é desenvolver vários Data Marts para posteriormente
integrá-los e, assim, chegar-se ao EDW.

A seguir apresentamos um esquema que diferencia estas duas abordagens.

Inmon ou EDW Kimball ou Data Mart

•Abordagem Top-down. •Abordagem Bottom-up.

•EDW alimenta os data marts departamentais •Data marts são integrados por um barramento
(DW->DM). ou middleware (DM->DW).

•Adapta metodologias e ferramentas de •Emprega modelagem dimensional.


banco de dados relacionais.

•Modelo de dados normalizado (3FN). •Modelo de dados não normalizado.

•Orientado a assunto ou a dados. •Orientado a processo.

•Baixa acessibilidade a usuários finais, mas •Alta acessibilidade a usuários finais.


voltado para os profissionais de TI.

•Fornece uma solução técnica baseada em •Entrega uma solução que torna fácil o acesso
métodos e técnicas comprovadas de BD. direto pelos usuários às consultas aos
dados com bons tempos de resposta.

•Consultas realizadas nos data marts. •Consultas realizadas no Data Warehouse.

Esquema 5 – Abordagens de desenvolvimento de um DW.

Prof. Ramon Souza 12 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

3- (FCC - 2016 - TRT - 20ª REGIÃO (SE) - Técnico


Judiciário - Tecnologia da Informação) Considere, por hipótese, que o
Tribunal Regional do Trabalho da 20a Região tenha optado pela implementação
de um DW (Data Warehouse) que inicia com a extração, transformação e
integração dos dados para vários DMs (Data Marts) antes que seja definida uma
infraestrutura corporativa para o DW. Esta implementação
a) é conhecida como top down.
b) permite um retorno de investimento apenas em longo prazo, ou seja, um
slower pay back
c) tem como objetivo a construção de um sistema OLAP incremental a partir de
DMs independentes.
d) não garante padronização dos metadados, podendo criar inconsistências de
dados entre os DMs.
e) tem como vantagem a criação de legamarts ou DMs legados que facilitam e
agilizam futuras integrações.
Resolução:
Vamos analisar cada uma das alternativas:
a) Incorreto: é conhecida como top down bottom up.
b) Incorreto: permite um retorno de investimento apenas em longo prazo, ou
seja, um slower pay back mais rápido quando comparado a abordagem
top down.
c) Incorreto: tem como objetivo a construção de um sistema OLAP incremental
DW organizacional a partir de DMs independentes.
d) Correto: não garante padronização dos metadados, podendo criar
inconsistências de dados entre os DMs.
e) Incorreto: tem como vantagem desvantagem a criação de legamarts ou
DMs legados que facilitam e agilizam futuras integrações não consideram a
arquitetura de forma global.
Gabarito: Letra D.

Prof. Ramon Souza 13 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

2. MODELAGEM DIMENSIONAL

2.1 Noções de Modelagem dimensional


Inicialmente, é importante citar que a modelagem dimensional ou
multidimensional é a técnica de modelagem de banco de dados utilizada
para a representação dos dados nos bancos de dados multidimensionais.
A modelagem dimensional é usada para o auxílio às consultas em
um Data Warehouse nas mais diferentes perspectivas, definindo a
representação e armazenamento dos dados nestes repositórios, bem como
promovendo o processamento de consultas multidimensionais complexas. A
visão multidimensional permite, ainda, o uso mais intuitivo para o
processamento analítico pelas ferramentas OLAP (On-line Analytical
Processing), que possibilitam a análise de dados complexos do Data Warehouse.
Navathe destaca que os modelos multidimensionais tiram proveito dos
relacionamentos inerentes nos dados para preencher os dados em matrizes
multidimensionais, chamadas de cubos de dados.
Ressalta-se que para dados organizados no formato dimensional, o
desempenho da consulta nas matrizes multidimensionais pode ser muito
melhor do que no modelo de dados relacional. Os dados do cubo podem
ser consultados diretamente a partir de qualquer combinação de suas
dimensões. Os cubos que possuem mais de três dimensões são chamados de
hipercubos, mas não são facilmente apresentados de maneira gráfica.

EXEMPLO:
Vejamos um exemplo de representação do modelo multidimensional por um
cubo de dados tridimensional que organiza os dados de vendas de produtos
por trimestres fiscais e por região.
Cada célula neste modelo representa
dados de um produto específico, em um
trimestre fiscal específico e para uma
determinada região.
As consultas neste modelo são realizadas
C diretamente a partir da combinação das
dimensões, por exemplo, podemos
consultar o total de vendas de um
produto P123 em uma determinada
região Reg1.

Prof. Ramon Souza 14 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Vamos consolidar estes conceitos iniciais com um esquema!!!

Modelagem
dimensional

Técnica de modelagem
Permite uso mais
de BD utilizada para a
Auxílio às consultas em intuitivo para o
representação dos dados
um Data Warehouse. processamento analítico
nos BDs
pelas ferramentas OLAP.
multidimensionais.

Dados são modelados em


matrizes Hipercubo: matriz com
multidimensioanais ou
mais de três dimensões.
cubos de dados.

Desempenho da consulta Os dados do cubo podem


no cubo pode ser muito ser consultados
melhor do que no diretamente a partir de
modelo de dados qualquer combinação de
relacional. suas dimensões.

Esquema 6 – Modelagem dimensional.

4- (FCC - 2014 - TJ-AP - Analista Judiciário - Área


Apoio Especializado - Tecnologia da Informação - Administração em
Redes de Computadores) Os sistemas de Data Warehouse utilizam-se de um
modelo de dados diferente dos bancos de dados tradicionais, que proporciona
ganhos de desempenho nas consultas. Esse modelo é conhecido como
modelagem
a) dinâmica. b) dimensional. c) fixa. d) online. e) transacional.
Resolução:
A modelagem dimensional ou multidimensional é a técnica de
modelagem de banco de dados utilizada para a representação dos dados
nos bancos de dados multidimensionais.
A modelagem dimensional é usada para o auxílio às consultas em um
Data Warehouse nas mais diferentes perspectivas, definindo a representação
e armazenamento dos dados nestes repositórios, bem como promovendo o
processamento de consultas multidimensionais complexas. A visão
multidimensional permite, ainda, o uso mais intuitivo para o
processamento analítico pelas ferramentas OLAP (On-line Analytical
Processing), que possibilitam a análise de dados complexos do Data Warehouse.
Gabarito: Letra B.

Prof. Ramon Souza 15 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

2.2 Tabelas fato e tabelas dimensão


O modelo de armazenamento dimensional envolve dois tipos de tabelas:
tabelas de dimensão e tabela de fatos. Uma tabela de dimensão consiste em
tuplas de atributos da dimensão. Uma tabela de fatos pode ser imaginada
como tendo tuplas, uma para cada fato registrado. Este fato contém alguma(s)
variável(is) e a(s) identifica com ponteiros para tabelas de dimensão. A tabela
de fatos contém os dados, e as dimensões identificam cada tupla nesses dados.
Uma tabela de fatos, ou simplesmente tabela-fato, contém uma
grande quantidade de tuplas que correspondem aos fatos observados
decorrentes de processos de negócios e links externos, sendo formada
por atributos descritivos necessários para realizar a análise de decisões
e relatórios de consulta.
Os atributos de análise de decisão das tabelas fato consistem em
medidas de desempenho, métricas operacionais, medidas agregadas e
todas as outras métricas necessárias para analisar o desempenho da
organização. Cada medida é representada em uma linha da tabela fato e deve
estar em um mesmo nível de detalhe ou granularidade. Como as tabelas
fato representam as medidas em um modelo dimensional, dizemos que elas
possuem característica quantitativa dentro de um DW.
Os fatos podem ser aditivos, semi-aditivos ou não aditivos.
❖ Medidas aditivas ou fatos aditivos: são os fatos mais úteis e
frequentes em um DW, obtidos por meio da soma de valores
gerados pela seleção de membros das dimensões. São medidas
cruciais, pois as aplicações de data warehouse quase nunca recuperam
uma única linha de dados. Em vez disso, eles trazem centenas,
milhares ou milhões de linhas de fato ao mesmo tempo, e a coisa mais
útil a fazer com tantas linhas é somá-las. Ex.: lucro líquido.

❖ Medidas semi-aditivas ou fatos semi-aditivos: são as medidas


obtidas a partir da soma de apenas uma parte das dimensões.
Ex.: quantidade em estoque (não utiliza dimensão tempo).

❖ Medidas não-aditivas ou fatos não-aditivos: não podem ser


adicionados. Em geral, para agregar as linhas é necessário percorrer
uma linha por vez. Ex.: porcentagem de vendas.
Embora seja raro, um fato pode ser textual. Na maioria dos casos, uma
medida textual é uma descrição de algo e é gerada a partir de uma lista
discreta de valores. Informações textuais redundantes não são
armazenadas em tabelas de fato, a menos que o texto seja exclusivo para
cada linha na tabela de fatos. De todo modo, o projetista deve envidar todos os
esforços para colocar as medidas textuais em dimensões porque elas podem ser
correlacionadas de forma mais eficaz com os outros atributos de dimensão
textual e consumirão muito menos espaço.

Prof. Ramon Souza 16 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Todas as tabelas de fatos têm duas ou mais chaves estrangeiras, que


se conecta às chaves primárias das tabelas de dimensões. Por exemplo, a chave
do produto na tabela de fatos sempre combinará uma chave de produto
específica na tabela de dimensão do produto. A tabela de fatos é acessada
através das tabelas de dimensões relacionadas a ela.
A própria tabela de fatos tem sua própria chave primária composta
formada por um subconjunto das chaves estrangeiras. Essa chave é chamada
de uma chave composta ou concatenada. Toda tabela de fatos em um modelo
dimensional tem uma chave composta e, inversamente, toda tabela que
possui uma chave composta é uma tabela de fatos. Outra maneira de dizer
isso é que, cada tabela que expressa um relacionamento de muitos para
muitos deve ser uma tabela de fatos. Todas as outras tabelas são tabelas
de dimensão. É importante destacar que a dimensão tempo é sempre
representada como parte da chave primária de uma tabela de fatos, pois
como o modelo multidimensional armazena dados históricos, é importante saber
qual o período do registro. Se não tivermos uma dimensão temporal associada,
perderíamos essa característica básica do modelo.
A chave composta da tabela fato é, geralmente, formada por apenas um
subconjunto de componentes da tabela, não sendo necessariamente formada
por todas as dimensões relacionadas a ela. Em raríssimos caso, há necessidade
de criação de uma chave identificadora (ROWID), no entanto isto torna a tabela
de fatos maior e não possibilita o uso de índices.
EXEMPLO:
Vejamos um exemplo de uma tabela de fatos para vendas diárias.
Tabela Fato de Vendas Diárias
Chave Data (FK)
Chave Produto (FK)
Chave Loja (FK)
Quantidade vendida
Valor da venda
A tabela fato deste exemplo está associada ao evento de negócios venda diária.
Note que os atributos desta tabela são medidas associadas ao negócio, por
exemplo, quantidade vendida e valor da venda representam medidas
importantes para a tomada de decisão dos gestores da organização. Os
atributos desta tabela podem ser utilizados pelo gestor para identificar diversas
questões como a quantidade de vendas realizadas em cada uma das lojas do
grupo, qual o produto tem maior saída, entre outros.
Perceba que a tabela fato possui três chaves estrangeiras (representadas por
FK), que referenciam as chaves primárias das tabelas dimensão Data, Produto
e Loja. Neste exemplo, pode ser definida, por exemplo, a chave primária como
sendo composta por apenas estes três atributos, pois, eles servem para
identificar unicamente cada um dos eventos. A dimensão Data integra esta
tabela, pois, sempre deverá haver uma dimensão tempo associada a chave
primária de uma tabela fato.

Prof. Ramon Souza 17 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

As tabelas de dimensões, ou simplesmente tabelas-dimensões,


contêm informações de classificação e agregação sobre as linhas da
tabela fato. As tabelas de dimensões contêm atributos que descrevem os
dados contidos na tabela de fatos; elas abordam como os dados serão
analisados e resumidos.
As tabelas de dimensão representam entidades de negócios e
constituem as estruturas de entrada que servem para armazenar informações
como tempo, geografia, produto, cliente. As tabelas de dimensão geralmente
representam relacionamentos hierárquicos no negócio (por exemplo,
produtos se associam a subcategorias que se associam a categorias). Dizemos
que elas possuem característica qualitativa dentro de um DW.
Os atributos de dimensão são, geralmente, textuais e discretos e
servem como a principal fonte de restrições de consulta, agrupamentos
e rótulos de relatório, desempenhando papel vital na utilização e
compreensão do DW. Kimball destaca a importância dos atributos de dimensão
sob vários aspectos, afirmando que o DW é tão bom quanto à qualidade e
profundidade dos atributos de dimensão.
As tabelas de dimensão são acompanhantes integrais de uma tabela
de fatos, contendo os descritores textuais do negócio. Em um modelo
dimensional bem concebido, as tabelas de dimensão têm muitas colunas
ou atributos. Esses atributos descrevem as linhas na tabela de dimensões.
Cada dimensão é definida por uma única chave primária, geralmente
simples, que visa garantir a integridade referencial com qualquer tabela de fato
a que ela está unida.
EXEMPLO:
Vejamos um exemplo de uma tabela de dimensão para Produtos.
Tabela Dimensão Produtos
Chave Produto (PK)
Descrição do Produto
Código do Produto
Descrição completa
Categoria
Departamento
Tipo de embalagem
Tamanho da embalagem
Peso
E muitos outros...
Esta tabela representa uma entidade de negócios: a entidade Produto. Perceba
que ela contém informações de classificação e agregação das linhas da tabela
fato apresentada anteriormente. A tabela fato apenas possui um atributo
indicando a chave do produto, mas a tabela dimensão possui uma série de
atributos que descrevem em maior profundidade um produto. Existe uma única
chave primária para a tabela dimensão que nesse caso é o atributo Chave
Produto. Essa chave é referenciada por uma chave estrangeira da tabela fato.
Por possuir natureza descritiva ou qualitativa, os atributos da tabela são,
geralmente, textuais, como podemos identificar nos diversos atributos de
descrição do exemplo (Descrição do Produto, Descrição Completa, etc.).

Prof. Ramon Souza 18 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Vamos fixar as tabelas fato e tabelas dimensão com um esquema!!!

Modelo Dimensional

Tabela Fato Tabela Dimensão

Contêm Representam
Tuplas que Formada por
Abordam entidades
correspondem aos atributos informações
como os de negócio,
fatos observados descritivos de
dados serão geralmente
decorrentes de necessários para classificação
analisados com
processos de realizar a análise e agregação
e relacioname
negócios e links de decisões e sobre as linhas
resumidos. nto
externos. relatórios de da tabela fato.
consulta. hierárquico.

Característica quantitativa no DW Característica qualitativa no DW

Atributos consistem em medidas de Atributos são, geralmente, textuais e discretos.


desempenho, métricas operacionais,
medidas agregadas e outras métricas.
Geralmente têm muitas colunas ou atributos.

Fatos ou medidas podem ser: Atributos servem como fonte de:

Aditivas Semi-aditivas Restrições de consulta

Ex. Lucro líquido Ex. quantidade


em estoque
Agrupamentos

Não aditivas Textual

Ex. porcentagem Raros e devem Rótulos de relatório


de vendas ser evitados

Chaves e relacionamentos entre as tabelas fato e dimensão

Duas ou mais chaves Conectam a tabela fato Única chave primária para
estrangeiras por tabela fato às tabelas dimensão.
cada dimensão

Geralmente simples
Um subconjunto das chaves
estrangeiras pode identificar
unicamente a tabela fato.

Sempre possui
Chave primária composta Dimensão Tempo

Esquema 7 – Tabelas fato e tabelas dimensão.

Prof. Ramon Souza 19 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

É importante ressaltar que nem sempre fica claro se um campo é um fato


que deve ser colocado na tabela de fatos ou se é um atributo de dimensão. A
decisão pode ser tomada com base no questionamento se o campo assume
muitos valores e participa de cálculos (tornando-se um fato) ou é uma descrição
discretamente valorada que é mais ou menos constante e participa de restrições
(tornando-se um atributo dimensional). Por exemplo, o custo padrão para um
produto parece ser um atributo constante do produto, mas pode ser alterado
com tanta frequência que, eventualmente, pode ser mais adequado modelá-lo
como como um fato medido.

5- (FCC - 2018 - TCE-RS - Auditor Público Externo -


Administração Pública ou de Empresas) Considerando a teoria da
modelagem dimensional, composta por tabelas dimensão e tabela fato, utilizada
em data warehouses,
a) todas as tabelas dimensão devem possuir o mesmo número de atributos.
b) o grau de relacionamento da tabela fato para as tabelas dimensão é de muitos
para muitos.
c) a tabela fato não deve possuir atributos do tipo numérico.
d) não há relacionamento entre as tabelas dimensão e a tabela fato.
e) não há limitação quanto ao número de tabelas dimensão.
Resolução:
Vamos analisar os itens:
a) Incorreto: as tabelas dimensão podem possuir número de atributos
diferentes.
b) Incorreto: o grau de relacionamento da tabela fato para as tabelas
dimensão é de muitos um para muitos.
c) Incorreto: a tabela fato não deve pode possuir atributos do tipo numérico.
d) Incorreto: não há relacionamento entre as tabelas dimensão e a tabela fato.
Todas as tabelas de fatos têm duas ou mais chaves estrangeiras, que se
conecta às chaves primárias das tabelas de dimensões. Por exemplo, a chave
do produto na tabela de fatos sempre combinará uma chave de produto
específica na tabela de dimensão do produto. A tabela de fatos é acessada
através das tabelas de dimensões relacionadas a ela.
e) Correto: não há limitação quanto ao número de tabelas dimensão.
Gabarito: Letra E.

Prof. Ramon Souza 20 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

2.3 Tipos de tabelas fato

Uma tabela fato pode ser de seis tipos:

❖ Fato transacional: são as mais comuns. A maioria dos bilhões de


linhas que temos no Data Warehouse são de tabelas fato transacional.
Uma linha em uma tabela de fato da transação corresponde a um evento
de medição em um ponto no espaço e no tempo. Elas geralmente
utilizam métricas aditivas. Essas tabelas de fato sempre contêm uma
chave estrangeira para cada dimensão associada e, opcionalmente,
possuem marcadores de tempo precisos e chaves de dimensão
degeneradas (derivadas de tabela fatos e sem dimensões associadas).

Armazena os dados basicamente de duas formas:


o Transação por linha: a cada transação que ocorre, uma linha é
inserida. Ex.: em um fato de vendas, a cada venda, uma linha é
inserida para cada unidade do produto vendido, mesmo que sejam
adquiridos mais de uma unidade.
o Linha por transação: uma linha é inserida para cada transação.
Ex.: em um fato de vendas, uma linha é inserida para cada venda,
agregando a quantidade total de produtos adquiridos.

❖ Fato agregada: é criada com dados da tabela fato, alterando sua


granularidade, ou seja, ela sumariza os dados, gerando uma tabela
menor. A tabela agregada é utilizada para otimizar o tempo de
acesso de uma consulta ao banco de dados. É importante avaliar
bem o ambiente para definir quais agregações devem ser criadas; a
utilização das mesmas requer um esforço adicional de manutenção,
além de aumentar o gasto com armazenamento, por isso deve-se
sempre tentar criar tabelas agregadas que atendam a múltiplas
consultas. Além disso, as tabelas agregadas podem ser temporárias;
desta forma, deve-se levar em conta a possível extinção dessa tabela e
os futuros efeitos causados devido a sua exclusão.

❖ Fato consolidada: semelhante à tabela agregada, mas serve para


combinar dois tipos de processos. A tabela consolidada agrega duas
tabelas fato. Não há verdadeiramente uma junção das duas tabelas,
mas no processamento do ETL, na hora de carregar a fato, carrega-se
uma, depois a outra, e misturam-se as duas, o que gera uma
complexidade extra. As duas tabelas devem ter o mesmo nível de
granularidade (detalhamento).

Prof. Ramon Souza 21 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

❖ Fato snapshot periódico: é uma tabela baseada no tempo, seja data,


dia, semana ou hora. É possível criar esta tabela a partir do ETL, mas
geralmente é criada a partir de uma tabela fato existente. Uma
linha em uma tabela de fato snapshot periódico resume muitos
eventos de medição ocorridos em um período padrão, como um dia,
uma semana ou um mês. Estas tabelas, muitas vezes, contêm muitos
fatos porque qualquer evento de medição consistente com o grão da
tabela de fato é permitido. Essas tabelas de fato são geralmente densas
em suas chaves estrangeiras porque, mesmo que nenhuma atividade
tenha lugar durante o período, uma linha normalmente é inserida na
tabela de fato contendo zero ou nulo para cada fato.

❖ Fato de snapshot acumulado: semelhante a snapshot periódico,


porém utiliza mais de um momento. Há cargas sucessivas em vários
momentos diferentes para verificar as diferenças nos dados ao longo do
tempo. Uma linha em uma tabela de fato de snapshot acumulado
resume os eventos de medição que ocorrem em etapas previsíveis
entre o início e o final de um processo. Há uma chave estrangeira de
data na tabela de fatos para cada marco crítico no processo. Além da
data, as chaves estrangeiras associadas a cada etapa do processo, as
tabelas de fatos de snapshot acumulado contêm chaves estrangeiras para
outras dimensões e, opcionalmente, possuem dimensões degeneradas.

❖ Fato sem fato (fato de associação ou fato de intersecção): serve


para fazer uma intersecção de dimensões. Utilizada quando é
necessário comparar ou cruzar algo entre duas dimensões e não
existe uma métrica para fazer essas comparações. Embora a
maioria dos eventos de medição capture resultados numéricos, é possível
que o evento apenas registre um conjunto de entidades
dimensionais que se juntam em um momento.

Prof. Ramon Souza 22 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

E para fixar estes tipos de fatos, vejamos um esquema:

Fato transacional
• Mais comuns.
• Linhas representam evento de medição em um ponto no espaço
e no tempo.

Fato agregada
• Sumariza os dados de uma tabela fato.
• Otimiza o tempo de consulta.
• Esforço adicional de manutenação e gasto com
armazenamento.

Fato consolidada
• Agrega duas tabelas fato (dois processos).
• Complexidade extra para o ETL.

Fato Snapshot Periódico


• Baseada no tempo.
• Geralmente criada a partir de uma fato existente.
• Uma linha resume muitos eventos de medição ocorridos em um
período padrão.

Fato Snapshot Acumulado


• Utiliza mais de um momento no tempo.
• Uma linha resume os eventos de medição que ocorrem em
etapas previsíveis entre o início e o final de um processo.

Fato sem fato


• Tabela somente com a intersecção de dimensões.
• Utilizada quando é necessário comparar ou cruzar algo entre duas
dimensões e não existe uma métrica para fazer essas
comparações.

Esquema 8 – Tipos de tabelas fatos.

Prof. Ramon Souza 23 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

6- (CESPE - 2018 - TCE-PB - Auditor de Contas


Públicas) A modelagem dimensional é uma técnica de projeto de banco de
dados capaz de suportar, em um data warehouse, consultas de usuários
finalísticos ligados a um negócio. Conceitos como tabela-fato, tabela agregada
e métricas fazem parte de modelagem, julgue os itens a seguir.
I- Uma tabela-fato armazena, para fins estatísticos, as medições de
desempenho.
II- A tabela agregada é composta de atributos e contêm a descrição do negócio.
III- A tabela agregada é utilizada para reduzir o tempo de acesso de uma
consulta de banco de dados.
IV- Métricas são as informações que se armazenam em tabela-fato e permitem
medir o desempenho dos processos do negócio.
V- As métricas não aditivas, assim como os valores percentuais ou relativos,
podem ser manipuladas livremente.
Estão certos apenas os itens,
a) I e II
b) I e III
c) II e V
d) III e IV
e) IV e V
Resolução:
Vamos analisar as afirmações:
I- Incorreto: Uma tabela-fato armazena, para fins estatísticos, as medições de
desempenho.
Os atributos de análise de decisão das tabelas fato consistem em medidas de
desempenho, métricas operacionais, medidas agregadas e todas
as outras métricas necessárias para analisar o desempenho da organização.
Em que pese essa definição, o item foi dado como incorreto pela banca.

II- Incorreto: A tabela agregada dimensão é composta de atributos e contém


a descrição do negócio.
A tabela agregada é criada com dados da tabela fato, alterando sua
granularidade, ou seja, ela sumariza os dados, gerando uma tabela menor.
As tabelas de dimensão representam entidades de negócios e constituem
as estruturas de entrada que servem para armazenar informações como tempo,
geografia, produto, cliente. As tabelas de dimensão geralmente
representam relacionamentos hierárquicos no negócio (por exemplo,

Prof. Ramon Souza 24 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

produtos se associam a subcategorias que se associam a categorias). Dizemos


que elas possuem característica qualitativa dentro de um DW.

III- Correto: A tabela agregada é utilizada para reduzir o tempo de acesso de


uma consulta de banco de dados.
A tabela agregada é utilizada para otimizar o tempo de acesso de uma
consulta ao banco de dados. É importante avaliar bem o ambiente para definir
quais agregações devem ser criadas; a utilização das mesmas requer um
esforço adicional de manutenção, além de aumentar o gasto com
armazenamento, por isso deve-se sempre tentar criar tabelas agregadas que
atendam a múltiplas consultas.

IV- Correto: Métricas são as informações que se armazenam em tabela-fato e


permitem medir o desempenho dos processos do negócio.
Métricas (por vezes chamadas de medidas ou fatos) são as informações
armazenadas nas tabelas fato que permite medir o desempenho dos processos
do negócio. As métricas são geralmente volumétricas, numéricas, podem ou
não ser agregadas e na maioria das vezes são do tipo aditivas, ou seja,
permitem operações como adição, subtração e médias. Existem também outros
dois tipos de métricas, as métricas não aditivas e as semi-aditiva.

V- Incorreto: As métricas não aditivas, assim como os valores percentuais ou


relativos, podem ser manipuladas livremente.

As medidas não-aditivas ou fatos não-aditivos não podem ser


adicionados. Em geral, para agregar as linhas é necessário percorrer uma linha
por vez. Ex.: porcentagem de vendas.
Assim, embora considere certos os itens I, III e IV, a banca considerou como
corretos apenas os itens III e IV, dando a entender que a expressão “para fins
estatísticos” no item I poderia estar restringindo o objetivo do armazenamento
das medições.
Gabarito: Letra D.

Prof. Ramon Souza 25 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

2.4 Esquemas multidimensionais


As tabelas fato e dimensões podem estar organizadas de forma diferente
na construção de um modelo multidimensional. Os dois esquemas mais comuns
são o esquema estrela e o esquema flocos de neve.
O esquema estrela (star schema) consiste em uma tabela de fatos
com uma única tabela para cada dimensão. Neste esquema, existe uma
tabela fato central conectada a várias tabelas dimensão.
O esquema estrela é o esquema mais comumente usado e o estilo mais
simples de modelagem dimensional. O esquema estrela foi projetado para
fornecer consultas com rápido tempo de resposta, simplicidade e facilidade de
manutenção para as estruturas de bancos de dados somente leitura.
Como neste esquema o foco é nas consultas rápidas, pode existir
redundância dos dados e, portanto, as tabelas deste esquema não são
normalizadas. Não entraremos em detalhes sobre a normalização, mas tenha
em mente que a normalização de banco de dados pode ser entendida como
conjunto de regras que visa, principalmente, a organização de um projeto de
banco de dados para reduzir a redundância de dados, aumentar a integridade
de dados e o desempenho.

EXEMPLO:
Vejamos um exemplo de um modelo com esquema estrela.

Dimensão Produto Dimensão Trimestre Fiscal


Número do Produto Trimestre
Nome do Produto Ano
Descrição do Produto Data de início
Estilo do Produto Data de fim
Linha do Produto Tri

Fato Resultados de Negócios


Produto (FK)
Trimestre (FK)
Região (FK)
Receita
Dimensão Região
Região
Sub-região
Re

Neste exemplo, podemos perceber que no esquema estrela existe uma tabela
fato central Resultados de Negócios representando a receita gerada nas vendas
de uma determinada região, relacionando-se a produtos, organizados por
trimestre e por região (suas dimensões).
Note que existe apenas uma tabela para representar cada dimensão e, dessa
forma, elas não são normalizadas. Poderíamos dividir a tabela Produto em mais
de uma tabela, criando, por exemplo, uma tabela para representar as linhas de
produtos existentes e relacionando o produto com sua respectiva linha.

Prof. Ramon Souza 26 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

O esquema flocos de neve (snowflake) consiste também em uma


tabela de fatos central (geralmente apenas uma) que estão conectadas a
múltiplas dimensões, no entanto, estas tabelas dimensões são
normalizadas em tabelas relacionadas. Dito de outra forma, as dimensões
neste esquema podem ser representadas por mais de uma tabela.
No esquema flocos de neve, as tabelas dimensão são organizadas
em uma hierarquia gerada a partir da normalização, geralmente, até a
terceira forma normal. Assim, o esquema floco de neve é resultado da
decomposição de uma ou mais dimensões que possuem hierarquias
entre seus membros. Como dissemos, não entraremos aqui em detalhes
sobre normalização, mas saiba que a terceira forma normal se refere a
dependência exclusiva dos atributos não chave de uma tabela em relação a
chave desta mesma tabela, isto é, todos os atributos que não são chave devem
depender exclusivamente da chave. É importante destacar que somente as
tabelas dimensões são normalizadas, não ocorrendo normalização nas
tabelas fato.

EXEMPLO:
Vejamos um exemplo de um modelo com esquema flocos de neve.

Dimensão Produto normalizada


Produto
Nome do Produto Número do Produto Linha do Produto
Nome do Produto Nome do Produto Número da Linha do Produto
Descrição do Produto Estilo do Produto Nome da Linha do Produto
Número da Linha do Produto

Resultados de Negócios
Produto (FK)
Trimestre (FK)
Região (FK)
Receita
Dimensão Região normalizada

Região
Dimensão Trimestre Fiscal Região
normalizada Sub-região
Trimestre Fiscal Re
Datas Trimestre
Data de início Ano
Data de fim Data de início
Tri Tri

Neste exemplo, podemos perceber que no esquema flocos de neve também


utiliza uma tabela fato central, mas as dimensões são normalizadas, podendo
ser necessário dividi-las em mais de uma tabela como no caso da Dimensão
Produto que foi dividida nas tabelas Produto, Linha do Produto e Nome do
Produto. Essa divisão reduz a redundância dos dados, mas aumenta a
complexidade do modelo.

Prof. Ramon Souza 27 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

O esquema estrela facilita a manutenção para estruturas somente


leitura, pois sua estrutura é menos complexa, sendo necessário acessar menos
tabelas (somente uma tabela para cada dimensão).
Já o esquema floco de neve facilita a manutenção para alteração
das estruturas, pois não há redundância dos dados. Assim, se precisar alterar
algo específico só precisará alterar as tabelas “menos centrais” das dimensões.
Por exemplo, se tiver uma dimensão Produto e uma outra tabela TipoProduto e
precisar modificar os tipos dos produtos, basta modificar a tabela TipoProduto,
sem ter que alterar a tabela Produto.
Os dois modelos são, em certa medida, parecidos. Turban fala que o
esquema estrela é considerado um caso especial do esquema floco de neve. Já
Navathe fala que um esquema flocos de neve é uma variação do esquema
estrela. Portanto, temos uma divergência em qual modelo é a origem para qual,
mas o mais importante é saber a diferença entre os dois esquemas.
Além desses dois esquemas básicos, a constelação de fatos é um
esquema em que um conjunto de tabelas fato compartilham dimensões
comuns. Dito de outra forma, na constelação de fatos, as tabelas dimensões
podem estar relacionadas a mais de uma tabela fato. As dimensões
compartilhadas são chamadas de dimensões conformes. Uma das
desvantagens das constelações de fatos é que elas limitam as consultas ao
Data Warehouse.
Para Barbieri, se estivermos diante de um modelo não normalizado
que compartilha dimensões, podemos falar em esquema multiestrela.
Note, que um esquema multiestrela é, na verdade, uma constelação de fatos,
mas guarda relação com as características do esquema estrela.

EXEMPLO:
Vamos ver um exemplo de constelação de fatos.

Dimensão Produto
Fato Resultados de Negócios Fato Previsão de Negócios
Número do Produto
Produto (FK) Produto (FK)
. Nome do Produto
Trimestre (FK) Trimestre Futuro (FK)
Descrição do Produto
Região (FK) Região (FK)
Estilo do Produto
Receita Receita Projetada
Linha do Produto

No esquema apresentado, podemos ver claramente que duas tabelas fato


(Resultados de negócio e Previsão de Negócios) compartilham dados de uma
mesma dimensão (Produto).
Como a dimensão produto não está normalizada, temos aqui também um
exemplo de multiestrela. Lembre-se que o multiestrela possui todas as
características do esquema estrela, exceto por ter mais de uma tabela fato.

Prof. Ramon Souza 28 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Para consolidar as características e diferenças entre os esquemas dimensionais,


vejamos o seguinte esquema!!!

Esquema estrela Esquema floco de neve

(star schema) (snowflake)


Uma tabela de fatos com uma única Tabela de fatos central (geralmente
tabela para cada dimensão. apenas uma) que estão conectadas a
múltiplas dimensões.

Tabelas dimensão são normalizadas,


Tabelas não são normalizadas.
geralmente, até a 3FN.

Tabelas dimensão ligadas Tabelas dimensão organizadas em


diretamente a tabela fato. hierarquia.

Menor número de tabelas. Maior número de tabelas.

Rápido tempo de resposta e


Modelo mais complexo.
simplicidade.

Facilidade de manutenção para


Facilidade de manutenção para
alteração das estruturas, pois não
estruturas somente leitura.
há redundância.

Consultas mais simples, pois há Consultas mais complexas e difíceis


menor necessidade de junção de de entender, pois há necessidade de
tabelas. realizar muitas junções.

Dimensão Dimensão Dimensão Dimensão

Tabela Fato
Tabela Fato

Dimensão Dimensão Dimensão


Dimensão Dimensão
Normalizada Normalizada Normalizada
Desnormalizada Desnormalizada

Constelação de fatos
Conjunto de tabelas fato Multiestrela: se for
compartilham dimensões semelhante ao esquema Limitam as consultas ao
comuns (dimensões estrela, mas com mais de Data Warehouse.
conformes). uma tabela fato.

Dimensão Dimensão Dimensão


Conforme
Tabela Fato Tabela Fato

Dimensão Dimensão Dimensão


Conforme

Esquema 9 – Esquemas multidimensionais.

Prof. Ramon Souza 29 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

7- (FCC - 2018 - SABESP - Analista de Gestão -


Sistemas) Um Analista está trabalhando em um Data Warehouse − DW que
utiliza no centro do modelo uma única tabela que armazena as métricas e as
chaves para as tabelas ao seu redor (que descrevem os dados que estão na
tabela central) às quais está ligada. O esquema de modelagem utilizado pelo
DW, a denominação da tabela central e a denominação das tabelas periféricas
são, respectivamente,
a) floco de neve, base, granulares.
b) estrela, fato, dimensões.
c) constelação, fato, granulares.
d) atomic, base, branches.
e) anel, base, dimensões.
Resolução:
O esquema estrela (star schema) consiste em uma tabela de fatos com
uma única tabela para cada dimensão. Neste esquema, existe uma tabela
fato central conectada a várias tabelas dimensão.

Gabarito: Letra B.

Prof. Ramon Souza 30 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

2.5 As 10 Regras Essenciais para a Modelagem de Dados Dimensional


Para encerrarmos a assunto de modelagem dimensional, iremos listar as
10 regras essenciais para a modelagem dimensional propostas por Kimball. Não
precisa se preocupar em decorar essas regras, mas faça uma leitura delas.
❖ Regra #1: Carregue dados detalhados para as estruturas
dimensionais: os modelos dimensionais devem ser populados com
dados detalhados para atender as consultas dos usuários de negócios.

❖ Regra #2: Estruture os modelos dimensionais em torno dos


processos de negócios: os processos de negócios representam as
atividades da empresa que podem ser mensuráveis com métricas de
desempenho associadas a eventos. Estas métricas devem ser traduzidas
em fatos. Cada processo de negócio deve ser representado por uma única
tabela fato, mas podem ser criadas tabelas fato consolidadas extras para
combinar métricas de vários processos.

❖ Regra #3: Tenha certeza de que cada tabela fato tenha uma
dimensão de data associada: cada tabela fato deve ter ao menos uma
chave estrangeira associada a uma tabela de dimensão data. Pode existir
mais de uma dimensão de tempo para uma tabela fato.

❖ Regra #4: Certifique-se que todos os fatos em uma única tabela


fato estão na mesma granularidade ou nível de detalhe: existem
três granularidades fundamentais para classificar todas as tabelas fato:
transacional, snapshot periódico, ou snapshot acumulado.
Independentemente de sua granularidade, cada métrica em uma tabela
fato deve estar exatamente no mesmo nível de detalhe.

❖ Regra #5: Resolva relacionamentos muitos-para-muitos em


tabelas fato: a tabela fato guarda os eventos de processos de negócio,
que muitas vezes representam relacionamentos muitos-para-muitos
(N:M) entre as entidades de negócios. Por exemplo, diferentes produtos
vendidos em diferentes lojas em diferentes diais.

❖ Regra #6: Resolva os relacionamentos muitos-para-um nas


tabelas de dimensões: para evitar o excesso de subdimensões em um
modelo, os relacionamentos muitos para um (M:1) devem ser
concentrados em uma única tabela dimensão. Por exemplo, regiões e
sub-regiões podem ser armazenadas na mesma tabela dimensão.
Relacionamentos um-para-um, como uma única descrição de produto
associada a um código de produto, também são encontradas em uma
tabela dimensão.

Prof. Ramon Souza 31 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

❖ Regra #7: Gravar nomes de relatórios e valores de domínios de


filtros em tabelas dimensão: as tabelas de dimensão devem conter os
códigos e descrições associados aos nomes das colunas usados em
relatórios e filtros de consultas.

❖ Regra #8: Tenha certeza de que as tabelas dimensão usam uma


chave artificial: o uso de chaves artificiais, sem significado e
sequenciais (exceto para a dimensão data, onde chaves
cronologicamente definidas e mais inteligíveis são aceitáveis) provém um
grande número de benefícios operacionais, entre os quais a redução do
tamanho das tabelas fato, menores índices e desempenho melhorado.

❖ Regra #9: Crie dimensões padronizadas para integrar os dados na


empresa: as dimensões padronizadas (comuns, principais, de referência
ou conformes) são aquelas associadas a diversas tabelas fato. Elas
permitem navegar entre os dados integrados de diferentes processos de
negócios, diminuem o tempo e esforço de desenvolvimento, e eliminando
a redundância.

❖ Regra #10: Avalie requisitos e realidade continuamente para


desenvolver uma solução de DW/BI que seja aceita pelos
usuários de negócios e suporte seu processo de tomada de
decisões: Os responsáveis pela modelagem dimensional devem
constantemente balancear os requisitos dos usuários de negócios com as
realidades inerentes aos dados de origem associados para desenvolver
um modelo que possa ser implantado, e que, mais importante ainda;
tenha uma boa chance de ser útil aos negócios.

Prof. Ramon Souza 32 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

3. OLAP

3.1 Análise de dados em um ambiente dimensional com OLAP


Uma vez que os dados são devidamente armazenados em um data
warehouse, esses dados podem ser usados de várias formas para apoiar a
tomada de decisões organizacionais. Existe uma variedade de ferramentas e
técnicas para trabalhar dados e informações, entre elas o OLAP.
O OLAP (processamento analítico on-line) é, sem dúvida, a técnica
de análise de dados mais comumente utilizada em modelos dimensionais, e tem
crescido em popularidade devido ao aumento exponencial dos volumes de dados
e ao reconhecimento do valor comercial das análises direcionadas por dados. O
OLAP é uma abordagem para responder rapidamente questões ad hoc
através da execução de consultas analíticas multidimensionais em
repositórios de dados organizacionais (data warehouses, data marts).
Nas mãos de analistas habilidosos, as ferramentas OLAP utilizam
capacidades de computação distribuída para análises que exigem mais
armazenamento e poder de processamento do que pode estar localizado
econômica e eficientemente em um desktop individual.
É importante citar que os bancos de dados tradicionais também possuem
suporte para processamento de transação, no entanto, através de ferramentas
OLTP (processamento de transação on-line), que inclui inserções,
atualizações e exclusões, e suportam requisitos de consulta de informação.
A principal ênfase das ferramentas OLTP é realizar processamento de consultas
rapidamente, mantendo a integridade dos dados em ambientes multiusuários e
a efetividade em transações por segundo.
Vamos fixar as diferenças entre OLAP e OLTP com um esquema!!!

OLTP OLAP

•Realizar funções comerciais cotidianas •Suportar análise de decisões

•Bancos de dados transacionais •DWs ou DMs

•Inclusão, alteração, exclusão e consulta •Carga e consulta.

•Relatórios de rotina, periódicos e •Relatórios e consultas Ad hoc,


estreitamente focados multidimensionais, amplamente focados

•Execução mais rápida •Execução mais lenta

•Atualização contínua •Atualização em lote

• Recursos dos bancos de dados relacionais. •Recursos de computação distribuída,


multiprocesamento e bancos
especializados.

Esquema 10 – OLTP x OLAP.

Prof. Ramon Souza 33 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

8- (FCC - 2016 - AL-MS - Técnico de Informática) As


ferramentas OLAP − Online Analytical Processing
a) utilizam operações drill para navegar nas dimensões.
b) são as aplicações às quais os usuários finais têm acesso para fazerem
consultas e análise a partir dos dados armazenados em bancos de dados
transacionais (OLTP).
c) utilizam operações slice and dice para modificar o nível de granularidade da
consulta.
d) possibilitam a análise multidimensional para a descoberta de tendências e
cenários, de forma a transformar dados de um Data Warehouse em informação
estratégica.
e) representam os dados como tabelas ao invés de dimensões.
Resolução:
Vamos analisar cada uma das alternativas:
a) Incorreto: utilizam operações drill pivot para navegar nas dimensões.
b) Incorreto: são as aplicações às quais os usuários finais têm acesso para
fazerem consultas e análise a partir dos dados armazenados em bancos de
dados transacionais (OLTP) multidimensionais.
c) Incorreto: utilizam operações slice and dice drill para modificar o nível de
granularidade da consulta.
d) Correto: possibilitam a análise multidimensional para a descoberta de
tendências e cenários, de forma a transformar dados de um Data Warehouse
em informação estratégica.
O OLAP é uma abordagem para responder rapidamente questões ad hoc
através da execução de consultas analíticas multidimensionais em
repositórios de dados organizacionais (data warehouses, data marts).
e) Incorreto: representam os dados como tabelas ao invés de dimensões
dimensões ao invés de tabelas.
Gabarito: Letra D.

Prof. Ramon Souza 34 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

3.2 Tipos ou variações OLAP


Vamos estudar agora os tipos ou variações do OLAP com base nas
estruturas de armazenamento: ROLAP, MOLAP e HOLAP.
As ferramentas MOLAP (Processamento Analítico Multidimensional
On-Line) requerem pré-computação e o armazenamento de
informações no cubo de dados, isto é, um pré-processamento.
As ferramentas MOLAP disparam suas requisições diretamente ao
servidor de Banco de Dados Multidimensional. Após o envio de requisições
o usuário continua manipulando os dados diretamente no servidor, tendo um
ganho de desempenho. É necessário um longo período para execução da
carga de dados, devido ao grande volume de informações a serem atualizadas
para possibilitar um retorno rápido às consultas da interface OLAP.
A vantagem de conseguir alto desempenho com a pré-geração de todos
os cálculos no momento da criação dos cubos, faz com que o MOLAP seja
limitado a uma pouca quantidade de dados (baixa escalabilidade).
As ferramentas ROLAP (Processamento Analítico Relacional On-
line) não requerem pré-computação e armazenamento de informações,
pois acessam os dados em um banco de dados relacional e geram
consultas SQL para consultar informações em um nível apropriado solicitado
pelo usuário. Com o ROLAP, é possível criar tabelas de banco de dados
adicionais (tabelas de resumo ou agregações) que resumem os dados em
qualquer combinação de dimensões desejada.
Usando a arquitetura ROLAP, não há nenhuma restrição na limitação da
quantidade dados a serem analisados (alta escalabilidade), cabendo essa
limitação sendo do próprio banco de dados relacional utilizado.
O banco de dados deve ser cuidadosamente projetado para o uso do
ROLAP. Um banco de dados que foi projetado para OLTP não funcionará bem
como um banco de dados ROLAP, assim, o ROLAP envolve a criação de uma
cópia adicional dos dados.
O HOLAP (Processamento Analítico On-Line Híbrido) combina o
ROLAP com MOLAP visando reduzir o custo de extração, transformação e
carga dos dados e aumentar o desempenho das consultas.

Quanto a origem da consulta, temos as variações DOLAP e WOLAP.


As ferramentas DOLAP (Processamento Analítico On-line por
Desktop) disparam uma consulta de uma estação cliente para o
servidor, que por sua vez retorna enviando o cubo de dados de volta, para que
possa ser analisado pelo usuário. Esse tipo de análise é utilizado para fornecer
portabilidade aos dados. Essa arquitetura oferece a vantagem de reduzir o
tráfego na rede e melhora o desempenho de processamento do servidor, pois
todo o trabalho de análise das informações e feita pela máquina cliente.

Prof. Ramon Souza 35 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

As ferramentas WOLAP (Processamento Analítico On-line via Web)


disparam uma consulta via um navegador web para o servidor, que por
sua vez retorna enviando o cubo processado de volta, para que possa ser
analisado pelo usuário.

Vamos ver um esquema que caracteriza e diferencia essas variações!!!

• Armazenamento de informações no
cubo de dados.
• Requer pré-computação.
• Ganho de desempenho.
MOLAP • Longo período para carga dos
dados.
• Baixa escalabilidade.
• Permite consultas ad-hoc.

• Acessam os dados em um banco


Quanto a de dados relacional e geram
estrutura de ROLAP consultas SQL.
armazenamento • Não requer pré-computação.
• Baixo desempenho, pois requer
cópia adicional de dados.
Variações OLAP

• Alta escalabilidade.

• Combinação de ROLAP com


MOLAP.
HOLAP
• Alto desempenho
• Alta escalabilidade.
• Arquitetura de maior custo.

DOLAP • Disparam uma consulta de uma


estação cliente para o servidor.

Quanto a origem
da consulta

WOLAP • Disparam uma consulta de via


navegador web para o servidor.

Esquema 11 – Variações OLAP.

Vale mencionar que conforme cita Navathe, uma vez que os data
warehouses são livres das restrições do ambiente transacional, existe uma
eficiência aumentada no processamento das consultas. Além das
ferramentas OLAP (MOLAP, ROLAP, WOLAP, etc.), a eficiência das consultas
pode ser aumentada com a transformação de consulta; intersecção e união de
índice; extensões SQL; métodos de junção avançados; e varredura inteligente.

Prof. Ramon Souza 36 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

9- (FCC - 2018 - DPE-AM - Analista em Gestão


Especializado de Defensoria - Analista de Banco de Dados) As
ferramentas OLAP compreendem diversas formas de organização dos dados de
um data warehouse. Dentre tais formas de organização, no tipo de ferramenta
OLAP denominado
a) ROLAP, os cubos pré-calculados são armazenados no servidor do ambiente
de data warehouse.
b) DOLAP, as consultas são feitas diretamente no modelo dimensional do data
warehouse.
c) MOLAP, as consultas são feitas diretamente no modelo dimensional do data
warehouse.
d) DOLAP, os cubos pré-calculados são armazenados no servidor do ambiente
de data warehouse.
e) MOLAP, os cubos pré-calculados são armazenados no servidor do ambiente
de data warehouse.
Resolução:
Vamos analisar cada uma das alternativas:
a) Incorreto: ROLAP MOLAP, os cubos pré-calculados são armazenados no
servidor do ambiente de data warehouse.
b) Incorreto: DOLAP MOLAP, as consultas são feitas diretamente no modelo
dimensional do data warehouse.
c) Correto: MOLAP, as consultas são feitas diretamente no modelo dimensional
do data warehouse.
d) Incorreto: DOLAP MOLAP, os cubos pré-calculados são armazenados no
servidor do ambiente de data warehouse.
e) Correto: MOLAP, os cubos pré-calculados são armazenados no servidor do
ambiente de data warehouse.
Gabarito: Letra E.
Gabarito do professor: anulada.

Prof. Ramon Souza 37 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

3.3 Operações OLAP


Usando o OLAP, é possível navegar pelo banco de dados e visualizar um
subconjunto específico dos dados (e sua progressão ao longo do tempo)
alterando as orientações dos dados e definindo cálculos analíticos. As
operações OLAP são usadas para essas funções. Vejamos brevemente a
função desempenhada pelas principais operações OLAP.

❖ Slice: recupera um subconjunto, geralmente bidimensional, de uma


matriz multidimensional, que corresponde a um valor simples atribuído a
uma (ou mais) dimensões.
EXEMPLO:
Em uma matriz multidimensional formada pelas dimensões Produto,
Trimestre Fiscal e Região, uma operação slice pode consultar os dados de
vendas de produtos no trimestre Tri1.
.
Note que, há fixação de um
único valor para uma das
dimensões, portanto, o
resultado será uma “fatia”
(análoga a fatia de bolo”,
recuperando todos os
produtos vendidos em todas
as regiões, mas somente para
um trimestre específico.

❖ Dice: corresponde a uma operação slice em mais de duas dimensões de um


cubo. Por meio dessa operação ocorre a extração de um subcubo.
EXEMPLO:
Em uma matriz multidimensional formada pelas dimensões Produto,
Trimestre Fiscal e Região, uma operação dice pode extrair um subcubo
restringindo os valores de trimestres (somente Tri1 e Tri2), de Produtos
.
(somente P123, P123 e P125) e de Regiões (somente Reg1 e Reg2).
Perceba que nesta operação há
a formação de um subcubo
com mais de um valor para
cada uma das dimensões,
porém com valores restritos
aos selecionados.

Prof. Ramon Souza 38 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

❖ Pivot ou rotate: usado para alterar a orientação dimensional de um


relatório ou uma exibição de página de consulta ad hoc.
EXEMPLO:
.
Em uma matriz multidimensional formada pelas dimensões Produto,
Trimestre Fiscal e Região, uma operação pivot ou rotate pode alterar a
orientação de visualização dos eixos, trocando as posições das dimensões.
Neste exemplo, todas as dimensões foram trocadas de posição.

❖ Drill Down / Up: navegação entre os níveis de dados que vão desde o
mais resumido até o mais detalhado (baixo).
▪ Aqui cabe um parêntese para falar de nível de granularidade.
Nível de granularidade diz respeito ao nível de detalhamento
da informação. Quanto maior o nível de detalhes, menor o nível
de granularidade, pois as informações estão dispostas em
“grãos” menores. Já para menor nível de detalhes, maior a
granularidade, pois os grãos de informações são maiores,
agregando mais os dados.
o Drill up (Roll up): sobe na hierarquia, agrupando unidades
maiores ao longo de uma dimensão. Aumenta a granularidade.
o Drill down: fornece uma visão mais detalhada, desagregando
unidades menores ao longo da dimensão. Diminui a granularidade.
EXEMPLO:
.
No exemplo, a operação drill
up agrega os dados das
regiões em países, subindo na
hierarquia. Há um aumento na
granularidade (grão “país” é
maior que o “grão” região.
A operação drill down é
utilizada para desagregar as
informações das regiões em
municípios, fornecendo um
maior detalhamento. Há uma
redução na granularidade
(grão “cidade” é menor que o
grão “região”).

Prof. Ramon Souza 39 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Vamos ver mais algumas operações.


❖ Drill-across: esta operação apresenta conceituações divergentes. Vejamos
as suas principais acepções utilizadas e provas de concursos:
o Drill-across (Kimball): para Kimball, esta operação serve realizar
consultas que envolvem mais de uma tabela fato. Note que, esta
conceito não tem nada a ver com a navegação entre níveis de dados.
Ex.: basta imaginar duas tabelas fatos distintas que serão consultadas
simultaneamente, tais como Vendas e Compras.

o Drill-across (Internet): navegação entre os níveis de dados,


saltando níveis.
Ex.: aqui há um salto de níveis, então imagine que em uma hierarquia
que possui PAÍSES, ESTADOS e MUNICÍPIOS, você passa a consulta
direto de PAÍSES para MUNICÍPIOS ou vice-versa.

❖ Drill-through: vejamos as acepções desta operação.


o Drill-through (Han, Kamber e Pei): utiliza as instalações SQL para
ir além do nível inferior de um cubo de dados até suas tabelas
relacionais back-end, permitindo, desta forma, o acesso aos dados
que não estão no modelo multidimensional.
Ex.: quando carregados no modelo multidimensional, os dados são
transformados através das ferramentas de ETL. Assim, certos
atributos podem, por exemplo, ser excluídos e, assim, se precisarem
ser consultados direto no modelo inferior usado para extração dos
dados será utilizada essa operação.

o Drill-through (Internet): usuário passa de uma informação contida


em uma dimensão para uma outra.
Ex.: supondo que o usuário está visualizando as informações de uma
dimensão tempo, ele poderá passar para uma dimensão local.

DÚVIDAS E POLÊMICAS

Qual acepção adotar para Drill-across e Drill-through?

Caros alunos, infelizmente não há pra afirmar de forma conclusiva quais das
acepções utilizar para estas operações.

Sugiro que fixem as duas acepções tanto para o drill through quanto para o drill
across. Como as questões não abordam as duas ao mesmo tempo, então dá pra
saber qual foi a utilizada.

Prof. Ramon Souza 40 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Vejamos uma questão que usa a acepção oficial do drill through:

(CESPE - 2018 - TCE-MG - Analista de Controle Externo


- Ciência da Computação) Assinale a opção que indica a forma de navegação
por nível de granularidade em um modelo de dados dimensional em que os
detalhes de uma informação sejam recuperados de outra estrutura.
a) drill-through
Gabarito: Letra A.

E uma questão que usa a acepção da internet do drill through:

(FCC - 2010 - TRT - 9ª REGIÃO (PR) - Técnico Judiciário


- Tecnologia da Informação) Quando o usuário passa da análise da dimensão
tempo e passa a analisar a dimensão região, por exemplo, ele está executando
a operação OLAP
a) drill throught.
Gabarito: Letra A.

Vejamos agora questões sobre a operação drill-across, começando por uma que
usa a acepção oficial:

(FUNRIO - 2013 - MPOG - Analista de Tecnologia da


Informação) A operação OLAP que permite relacionar fatos diferentes através
de dimensões compartilhadas é denominada.
d) drill-across
Gabarito: Letra D.

E uma que usa a acepção da internet do drill across:

(FCC - 2010 - TCE-SP - Agente da Fiscalização Financeira


- Informática - Produção e Banco de Dados) Quando, em um modelo
multimensional, o usuário pular um nível intermediário dentro de uma mesma
dimensão, como por exemplo, sendo a dimensão tempo composta por ano,
semestre, trimestre, mês e dia e o usuário pular de ano para mês, a operação
executada corresponde a
d) drill-across
Gabarito: Letra D.

Prof. Ramon Souza 41 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Vamos encerrar o estudo de OLAP com um esquema para fixar as operações!

Recupera um subconjunto (fatia) do cubo, geralmente


bidimensional.

Slice

Valor simples atribuído a uma (ou mais) dimensões.

Extração de um subcubo.

Dice

Operação slice em mais de duas dimensões de um cubo.

Alterar a orientação dimensional de um relatório ou uma exibição de


página
Pivot ou
rotate

Troca as dimensões da matriz.


Operações OLAP

Sobe na hierarquia

Drill up Reduz o nível de detalhe

Aumenta a granularidade.

Desce na hierarquia

Drill down Aumenta o nível de detalhe

Reduz a granularidade.

Kimball: realizar consultas que envolvem mais de uma tabela fato.

Drill across

Internet: Navegação entre os níveis de dados, saltando níveis.

Han, Kamber e Pei: utiliza as instalações SQL para ir além do nível


inferior de um cubo de dados até as tabelas relacionais back-end

Drill through

Internet: usuário passa de uma informação contida em uma dimensão


para uma outra.

Esquema 12 – Operações OLAP.

Prof. Ramon Souza 42 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

10- (FCC - 2018 - SEFAZ-SC - Auditor-Fiscal da Receita


Estadual - Auditoria e Fiscalização (Prova 3)) Atenção: Para responder à
questão, considere o seguinte caso hipotético:
Um Auditor da Receita Estadual pretende descobrir, após denúncia, elementos que
possam caracterizar e fundamentar a possível existência de fraudes, tipificadas como
sonegação tributária, que vêm ocorrendo sistematicamente na arrecadação do ICMS. A
denúncia é que, frequentemente, caminhões das empresas Org1, Org2 e Org3 não são
adequadamente fiscalizados nos postos de fronteiras. Inobservâncias de procedimentos
podem ser avaliadas pelo curto período de permanência dos caminhões dessas
empresas na operação de pesagem, em relação ao período médio registrado para
demais caminhões.

Para caracterizar e fundamentar a existência de possíveis fraudes, o Auditor deverá


coletar os registros diários dos postos por, pelo menos, 1 ano e elaborar demonstrativos
para análises mensais, trimestrais e anuais.

O Auditor poderá fazer análises de pesagens diversas a partir de operações


feitas sobre o cubo de dados multidimensional do Data Warehouse, por
exemplo, trocar a ordem, ou aumentar ou diminuir a granularidade dos dados
em análise, entre outras, como é o caso do uso da operação OLAP
a) drill down, que permite ao Auditor aumentar o nível de detalhe de análise
das informações de pesagens.
b) drill off, que permite ao Auditor mudar o foco dimensional de análise das
informações de pesagens.
c) pivot, que permite ao Auditor pular um intervalo dimensional de análise das
informações de pesagens.
d) drill accross, que permite ao Auditor mudar o escopo de análise das
informações de pesagens, filtrando e rearranjando determinadas partes do cubo
de dados.
e) roll out, que permite ao Auditor diminuir o nível de detalhe de análise das
informações de pesagens.
Resolução:
Vamos analisar os itens:
a) Correto: A operação Drill down fornece uma visão mais detalhada,
desagregando unidades menores ao longo da dimensão. Assim, há sai de níveis
mais altos para níveis mais baixos na hierarquia.
b) Incorreto: drill off pivot, que permite ao Auditor mudar o foco dimensional
de análise das informações de pesagens. Não existe a operação drill off.
c) Incorreto: pivot drill accross, que permite ao Auditor pular um intervalo
dimensional de análise das informações de pesagens.

Prof. Ramon Souza 43 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

d) Incorreto: drill accross slice and dice, que permite ao Auditor mudar o
escopo de análise das informações de pesagens, filtrando e rearranjando
determinadas partes do cubo de dados.
e) Incorreto: roll out roll up, que permite ao Auditor diminuir o nível de
detalhe de análise das informações de pesagens. Não existe a operação roll
out.
Gabarito: Letra A.

Prof. Ramon Souza 44 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

4. ETL
O maior propósito de um data warehouse é integrar dados de
múltiplos sistemas. A integração de dados compreende três processos
principais que, quando implementados corretamente, permitem que os dados
sejam acessados e acessíveis a um processo ETL e ferramentas de
análise para um ambiente de data warehousing, são elas:
❖ Acesso a dados: capacidade de acessar e extrair dados de qualquer
fonte;
❖ Federação de dados: a integração de visualizações de negócios e
múltiplos depósitos de dados; e
❖ Captura de alterações: baseado na identificação, captura e entrega de
mudanças a fontes de dados organizacionais.

O processo ETL consiste na extração (leitura de dados de uma ou mais


bases de dados), transformação (conversão dos dados extraídos de sua forma
anterior para a forma em que precisa estar para que possa ser colocado em um
data warehouse ou simplesmente outro banco de dados), e carga (colocar os
dados no data warehouse).
A transformação ocorre usando regras ou tabelas de pesquisa ou
combinando os dados com outros dados.
As ferramentas ETL também transportam dados entre fontes e destinos,
documentam como os elementos de dados mudam à medida que se movem
entre fonte e destino, trocam metadados com outras aplicações conforme
necessário e administram todos os processos e operações de execução (por
exemplo, agendamento, gerenciamento de erros, logs de auditoria,
estatísticas). O ETL é extremamente importante para a integração de
dados, bem como para data warehousing. O objetivo do processo ETL é
carregar o armazém com dados integrados e limpos.
O processo de migração de dados para um data warehouse envolve a
extração de dados de todas as fontes relevantes. As fontes de dados
podem consistir em arquivos extraídos de bancos de dados OLTP, planilhas,
bancos de dados pessoais (por exemplo, Microsoft Access) ou arquivos
externos. Normalmente, todos os arquivos de entrada são gravados em um
conjunto de tabelas de teste, que são projetadas para facilitar o processo de
carga.
Um data warehouse contém inúmeras regras de negócios que definem
coisas como a forma como os dados serão usados, regras de resumo,
padronização de atributos codificados e regras de cálculo. Um dos benefícios de
um armazenamento de dados bem projetado é que essas regras podem ser
armazenadas em um repositório de metadados e aplicadas
centralmente no data warehouse. Isso difere da abordagem OLTP, que
geralmente possui dados e regras comerciais espalhadas por todo o sistema.

Prof. Ramon Souza 45 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

O processo de carregamento de dados em um data warehouse pode


ser executado através de ferramentas de transformação de dados que
fornecem uma interface para ajudar no desenvolvimento e manutenção de
regras de negócios ou através de métodos mais tradicionais, como o
desenvolvimento de programas ou utilitários para carregar o data warehouse,
usando linguagens de programação como linguagens PL / SQL, C ++ ou .NET
Framework.
O processo de ETL é sintetizado no esquema a seguir.

Esquema 13 – Processo de ETL.

11- (FCC - 2018 - DPE-AM - Analista em Gestão


Especializado de Defensoria - Analista de Banco de Dados) Sobre o
processo de ETL, aplicado a data warehouse, é correto afirmar que
a) a fase de extração de dados consiste em obter os dados do servidor do data
warehouse.
b) a fase de transformação consiste em realizar modificações nos dados
carregados, adequando seus valores ao modelo definido para o data warehouse.
c) as fases de extração e carga de dados são realizadas de forma simultânea.
d) a fase de carga de dados visa eliminar valores nulos contidos nos bancos de
dados transacionais da empresa.
e) a fase de carga de dados consiste em inserir os dados transformados nos
bancos de dados transacionais da empresa.
Resolução:
Vamos analisar cada uma das alternativas:
a) Incorreto: a fase de extração carga de dados consiste em obter os dados
do servidor do data warehouse.

Prof. Ramon Souza 46 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

b) Correto: a fase de transformação consiste em realizar modificações nos


dados carregados, adequando seus valores ao modelo definido para o data
warehouse.
O mais correto para esse item seria falar em dados extraídos e não em dados
carregados, mas como os demais itens apresentam erros mais grosseiros, nos
resta essa opção.
c) Incorreto: as fases de extração e carga de dados são realizadas de forma
não simultânea. A extração é realizada antes da transformação, que, por
sua vez, é realizada antes da carga.
d) Incorreto: a fase de carga transformação de dados visa eliminar valores
nulos contidos nos bancos de dados transacionais da empresa.
e) Incorreto: a fase de carga de dados consiste em inserir os dados
transformados nos bancos de dados transacionais no Data Warehouse da
empresa.
Gabarito: Letra B.

Prof. Ramon Souza 47 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

5. QUESTÕES COMENTADAS
Business Intelligence
12- (CESPE - 2019 - SEFAZ-RS - Auditor Fiscal da Receita Estadual -
Bloco I) O data warehouse diferencia-se dos bancos de dados transacionais
porque
a) trabalha com dados atuais, mas não com dados históricos.
b) faz uso intenso de operações diárias e de processamento de transações
continuamente.
c) possui milhares de usuários de diferentes níveis hierárquicos dentro da
organização.
d) tem dimensionalidade genérica e níveis de agregação ilimitados.
e) utiliza ferramentas de prospecção e consulta de dados baseadas em OLTP
(on-line transaction processing).
Resolução:
Vamos analisar os itens:
a) Incorreto: trabalham com dados atuais e históricos.
b) Incorreto: o foco não é nas transações, mas na consulta de dados.
c) Incorreto: os bancos transacionais também podem ter vários usuários.
d) Correto: dimensionalidade genérica diz respeito a capacidade de tratar
informações em qualquer quantidade de dimensões. Devido às várias dimensões
existentes, deve haver vários níveis de agregação dos dados.
e) Incorreto: utilizam ferramentas OLAP e não OLTP.
Gabarito: Letra D.

13- (CESPE - 2019 - SEFAZ-RS - Auditor Fiscal da Receita Estadual -


Bloco I) Com relação aos modelos de dados multidimensionais, assinale a
opção correta.
a) A principal característica da tabela de fatos é a ausência de dados
redundantes, o que melhora o desempenho nas consultas.
b) Esses modelos são cubos de dados, sendo cada cubo representado por uma
única tupla com vários atributos.
c) Esses modelos proporcionam visões hierárquicas, ou seja, exibição roll-up ou
drill-down.
d) Os modelos de dados multidimensionais dão ênfase à coleta e às transações
de dados.

Prof. Ramon Souza 48 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

e) Esses modelos não utilizam processos de transferência de dados, mas sim


acessos nativos do próprio SGBD utilizado.
Resolução:
Vamos analisar os itens:
a) Incorreto: a tabela fato não é normalizada, portanto, não podemos falar
que não temos dados redundantes. Essa tabela representa as medidas de
negócio.
b) Incorreto: os cubos são formados por várias dimensões.
c) Correto: as operações de drill-up (roll-ul) e drill-down permitem navegar por
entre a hierarquia do modelo multidimensional.
d) Incorreto: a ênfase dos modelos multidimensionais é na análise dos dados
e não nas transações.
e) Incorreto: o acesso não é realizado no SGBD, mas há transferência de dados
para o DW e, depois, acesso aos dados nesse ambiente.
Gabarito: Letra C.

14- (CESPE - 2018 - FUB - Técnico de Tecnologia da Informação) Acerca


de bases de dados multidimensionais, julgue o item seguinte.
O modelo em estrela de um banco de dados multidimensional tem como objetivo
representar e manipular dados complexos, visando tornar aqueles dados mais
representativos em semântica e construções de modelagens por meio de nós e
suas ligações.
Resolução:
O modelo em estrela de um banco de dados multidimensional objeto
relacional tem como objetivo representar e manipular dados complexos,
visando tornar aqueles dados mais representativos em semântica e construções
de modelagens por meio de nós e suas ligações.
O esquema estrela (star schema) consiste em uma tabela de fatos com
uma única tabela para cada dimensão. Neste esquema, existe uma tabela
fato central conectada a várias tabelas dimensão.
Gabarito: Errado.

Prof. Ramon Souza 49 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

15- (CESPE - 2018 - FUB - Técnico de Tecnologia da Informação) Acerca


de bases de dados multidimensionais, julgue o item seguinte.
O operador drill-down relaciona-se ao processo de apresentar dados do nível
mais baixo da hierarquia de dados de um esquema para níveis mais altos.
Resolução:
O operador drill-down drill-up relaciona-se ao processo de apresentar dados
do nível mais baixo da hierarquia de dados de um esquema para níveis mais
altos.
A operação Drill down fornece uma visão mais detalhada, desagregando
unidades menores ao longo da dimensão. Assim, há sai de níveis mais altos
para níveis mais baixos na hierarquia.
Gabarito: Errado.

16- (CESPE - 2018 - IPHAN - Analista I - Área 7) Julgue o item que se


segue, a respeito de tecnologias de sistemas de informação.
O data warehouse é integrado, não volátil e orientado a assuntos, contudo,
embora lide com dados e os armazene para a tomada de decisões gerenciadas,
não é considerado um banco de dados, pois é variável em relação ao tempo.
Resolução:
O Data Warehouse é considerado um banco de dados.

Conjunto de dados Repositório de dados atuais e


produzidos para apoiar a Data Warehouse históricos de potencial interesse
tomada de decisão. para gestores de toda a organização.

Orientados a
Integrados Variante no tempo Não voláteis
assunto

Gabarito: Errado.

Prof. Ramon Souza 50 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

17- (CESPE - 2018 - IPHAN - Analista I - Área 7) Julgue o item que se


segue, a respeito de tecnologias de sistemas de informação.
Na modelagem estrela, o desenvolvimento de um data warehouse permite que
todas as métricas sejam sumarizadas em relação a todas as suas dimensões,
visto que as chaves primárias da tabela fato são uma composição de chaves
estrangeiras de todas as dimensões.
Resolução:
A chave primária da tabela fato é única, embora formada pelas várias chaves
estrangeiras das tabelas dimensões associadas.
Todas as tabelas de fatos têm duas ou mais chaves estrangeiras, que se
conecta às chaves primárias das tabelas de dimensões. Por exemplo, a chave
do produto na tabela de fatos sempre combinará uma chave de produto
específica na tabela de dimensão do produto. A tabela de fatos é acessada
através das tabelas de dimensões relacionadas a ela.
Gabarito: Errado.

18- (CESPE - 2018 - EBSERH - Analista de Tecnologia da Informação)


Julgue o item que se segue, a respeito de arquitetura e tecnologias de sistemas
de informação.
Usualmente, os data warehouses dão apoio a análises de série temporal e de
tendências, as quais requerem maior volume de dados históricos do que os que
geralmente são mantidos em bancos de dados transacionais.
Resolução:
Para Inmon, um Data Warehouse é uma coleção de dados orientada a
assunto, integrada, não volátil, variável no tempo para suporte às
decisões da gerência.
Um DW é variante no tempo, pois mantém os dados históricos, permitindo a
detecção de tendências, desvios e relações de longo prazo para previsões e
comparações.
Gabarito: Certo.

19- (CESPE - 2018 - TCM-BA - Auditor Estadual de Controle Externo)


Acerca de modelagem dimensional, assinale a opção correta.
a) As granularidades fundamentais para classificar todas as tabelas fato de um
modelo dimensional são: transacional, snapshot periódico e snapshot
acumulado.
b) Os fatos e dimensões não são tabelas do banco de dados, pois, no modelo
dimensional, são componentes do cubo de um data warehouse.

Prof. Ramon Souza 51 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

c) No modelo estrela, as dimensões são normalizadas para tornar mais ágeis as


consultas analíticas.
d) O modelo floco de neve (SnowFlake) aumenta o espaço de armazenamento
dos dados dimensionais, pois acrescenta várias tabelas ao modelo, todavia torna
mais simples a navegação por software que utilizarão o banco de dados.
e) Os códigos e as descrições associadas, usadas como nomes de colunas em
relatórios e como filtros em consultas, não devem ser gravados em tabelas
dimensionais.
Resolução:
Vamos analisar cada um dos itens:
a) Correto: As granularidades fundamentais para classificar todas as tabelas
fato de um modelo dimensional são: transacional, snapshot periódico e
snapshot acumulado. Além dessas, temos: fato agregada, consolidada e fato
sem fato.
b) Incorreto: Os fatos e dimensões são tabelas do banco de dados integrantes
do cubo de dados.
c) Incorreto: No modelo estrela, as dimensões não são normalizadas.
d) Incorreto: O modelo floco de neve (SnowFlake) aumenta o espaço de
armazenamento dos dados dimensionais, pois acrescenta várias tabelas ao
modelo, todavia torna mais simples complexa a navegação por software que
utilizarão o banco de dados.
e) Incorreto: as tabelas de dimensão devem conter os códigos e descrições
associados aos nomes das colunas usados em relatórios e filtros de consultas.
Gabarito: Letra A.

20- (CESPE - 2018 - STM - Técnico Judiciário - Programação de


Sistemas) A respeito de ETL, julgue o item a seguir.
O ambiente ETL permite a visualização dos dados para análise de maneira
multidimensional.
Resolução:
O ambiente ETL OLAP permite a visualização dos dados para análise de maneira
multidimensional. O OLAP é uma abordagem para responder rapidamente
questões ad hoc através da execução de consultas analíticas
multidimensionais em repositórios de dados organizacionais. O
processo ETL consiste na extração (leitura de dados de uma ou mais bases
de dados), transformação (conversão dos dados extraídos de sua forma
anterior para a forma em que precisa estar), e carga (colocar os dados no data
warehouse).
Gabarito: Errado.

Prof. Ramon Souza 52 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

21- (CESPE - 2018 - CGM de João Pessoa - PB - Auditor Municipal de


Controle Interno - Desenvolvimento de Sistemas) A respeito de business
intelligence, julgue o próximo item.
Business intelligence pode ser definido como um processo inteligente de coleta,
organização, análise, compartilhamento e monitoração de dados que, depois de
processados, geram informações para o suporte e para a tomada de decisões
no ambiente de negócios.
Resolução:
O termo Business Intelligence (BI) é um conceito guarda-chuva que combina
arquitetura, ferramentas, bancos de dados, ferramentas analíticas,
aplicações e metodologias com os objetivos de habilitar o acesso
interativo aos dados, habilitar a manipulação desses dados e prover aos
gerentes de negócios e analistas a habilidade de conduzir análises
apropriadas.
Gabarito: Certo.

22- (CESPE - 2018 - CGM de João Pessoa - PB - Auditor Municipal de


Controle Interno - Desenvolvimento de Sistemas) A respeito de business
intelligence, julgue o próximo item.
Na modelagem multidimensional utilizada em data warehouses para se prover
melhor desempenho, a tabela fato central deve relacionar-se às suas dimensões
por meio da chave primária oriunda da fonte de dados original. O valor dessa
chave deve ser idêntico ao da fonte, para que tenha valor semântico e garanta
que o histórico das transações seja mantido.
Resolução:
A relação entre a tabela fato é as tabelas dimensões é através das chaves
primárias das próprias dimensões e não das fontes de dados originais.
Todas as tabelas de fatos têm duas ou mais chaves estrangeiras, que se
conecta às chaves primárias das tabelas de dimensões. Por exemplo, a chave
do produto na tabela de fatos sempre combinará uma chave de produto
específica na tabela de dimensão do produto. A tabela de fatos é acessada
através das tabelas de dimensões relacionadas a ela.
Gabarito: Errado.

Prof. Ramon Souza 53 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

23- (CESPE - 2018 - CGM de João Pessoa - PB - Auditor Municipal de


Controle Interno - Desenvolvimento de Sistemas) A respeito de business
intelligence, julgue o próximo item.
O modelo snowflake acrescenta graus de normalização às tabelas de dimensões,
eliminando redundâncias; em termos de eficiência na obtenção de informações,
seu desempenho é melhor que o do modelo estrela, o qual, apesar de possuir
um único fato, possui tamanho maior que o do snowflake, considerando-se a
desnormalização das tabelas de dimensões.
Resolução:
O desempenho do modelo snowflake é pior que o estrela justamente devido as
normalizações. Para realizar as consultas devem ser feitas junções nas tabelas.
Gabarito: Errado.

24- (CESPE - 2018 - CGM de João Pessoa - PB - Auditor Municipal de


Controle Interno - Desenvolvimento de Sistemas) A respeito de business
intelligence, julgue o próximo item.
Uma ferramenta de ETL deve ser capaz de extrair dados de fontes heterogêneas,
copiá-los para uma área de transição, onde possam ser convertidos conforme o
padrão estabelecido, e, ainda, realizar limpeza e correção nesses dados, de
acordo com regras preestabelecidas.
Resolução:
O processo ETL consiste na extração (leitura de dados de uma ou mais bases
de dados), transformação (conversão dos dados extraídos de sua forma
anterior para a forma em que precisa estar para que possa ser colocado em um
data warehouse ou simplesmente outro banco de dados), e carga (colocar os
dados no data warehouse).
As ferramentas ETL também transportam dados entre fontes e destinos,
documentam como os elementos de dados mudam à medida que se movem
entre fonte e destino, trocam metadados com outras aplicações conforme
necessário e administram todos os processos e operações de execução (por
exemplo, agendamento, gerenciamento de erros, logs de auditoria,
estatísticas). O ETL é extremamente importante para a integração de
dados, bem como para data warehousing. O objetivo do processo ETL é
carregar o armazém com dados integrados e limpos.
Gabarito: Certo.

Prof. Ramon Souza 54 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

25- (FCC - 2018 - Prefeitura de São Luís - MA - Auditor Fiscal de


Tributos I - Tecnologia da Informação (TI)) Para extrair dados de fontes
de dados heterogêneas que irão alimentar um Data Warehouse de forma
homogênea e concisa, servindo de base para gerar relatórios e gráficos para
apoiar as decisões da gerência da organização, deve-se utilizar um processo
conhecido como
a) OLAP.
b) Data Mart.
c) ETL.
d) OLTP.
e) Data Mining.
Resolução:
Vamos analisar os itens:
a) Incorreto: o OLAP é uma abordagem para responder rapidamente
questões ad hoc através da execução de consultas analíticas
multidimensionais em repositórios de dados organizacionais (data
warehouses, data marts).
b) Incorreto: os Data Marts são utilizados para armazenar subconjunto de
dados dos DW, abrangendo uma determinada área de assunto ou departamento
da organização.
c) Correto: o processo ETL consiste na extração (leitura de dados de uma
ou mais bases de dados), transformação (conversão dos dados extraídos de
sua forma anterior para a forma em que precisa estar para que possa ser
colocado em um data warehouse ou simplesmente outro banco de dados), e
carga (colocar os dados no data warehouse).
d) Incorreto: os bancos de dados tradicionais também possuem suporte para
processamento de transação, no entanto, através de ferramentas OLTP
(processamento de transação on-line), que inclui inserções, atualizações
e exclusões, e suportam requisitos de consulta de informação. A principal
ênfase das ferramentas OLTP é realizar processamento de consultas
rapidamente, mantendo a integridade dos dados em ambientes multiusuários e
a efetividade em transações por segundo.
e) Incorreto: A mineração de dados (data mining) refere-se à mineração
ou descoberta de novas informações em termos de padrões ou regras
com base em grandes quantidades de dados. De outro modo, o termo
mineração de dados foi originalmente usado para descrever o processo pelo
qual os padrões anteriormente desconhecidos em dados são
descobertos.
Gabarito: Letra C.

Prof. Ramon Souza 55 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

26- (FCC - 2018 - SABESP - Técnico em Gestão 01 - Informática) Um


Técnico executou uma operação de visualização OLAP que rotacionou os eixos
de um determinado cubo, provendo uma visão alternativa dos dados, ou seja,
permitindo a visão de suas várias faces. Ele executou a operação
a) slice.
b) dice
c) drill across.
d) pivot.
e) roll up.
Resolução:
Vejamos cada uma das operações:
a) Incorreto: Slice: recupera um subconjunto, geralmente bidimensional,
de uma matriz multidimensional, que corresponde a um valor simples
atribuído a uma (ou mais) dimensões.
b) Incorreto: Dice: corresponde a uma operação slice em mais de duas
dimensões de um cubo. Por meio dessa operação ocorre a extração de um
subcubo.
c) Incorreto: Drill-across: esta operação apresenta conceituações
divergentes. Vejamos as suas principais acepções utilizadas e provas de
concursos:
❖ Drill-across (Kimball): para Kimball, esta operação serve realizar
consultas que envolvem mais de uma tabela fato. Note que, esta
conceito não tem nada a ver com a navegação entre níveis de dados.
❖ Drill-across (Internet): navegação entre os níveis de dados, saltando
níveis.
d) Correto: Pivot ou rotate: usado para alterar a orientação dimensional
de um relatório ou uma exibição de página de consulta ad hoc.
e) Incorreto: Drill up (Roll up): sobe na hierarquia, agrupando unidades
maiores ao longo de uma dimensão. Aumenta a granularidade.
Gabarito: Letra D.

Prof. Ramon Souza 56 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

27- (FCC - 2017 - DPE-RS - Analista - Banco de Dados) Um dos modelos


mais utilizados no projeto e implementação de um data warehouse é o modelo
dimensional ou multidimensional. Em um modelo dimensional (composto por
uma tabela fato e várias tabelas dimensão),
a) as tabelas dimensão devem conter apenas atributos do tipo literal.
b) a tabela fato tem uma cardinalidade de mapeamento de um para um com
cada tabela dimensão.
c) a tabela fato deve conter atributos numéricos, visando proporcionar dados
para uma análise de atividades da empresa.
d) há um número teórico mínimo de 3 e máximo de 15 tabelas dimensão.
e) as tabelas dimensão comportam um número máximo teórico de atributos.
Resolução:
Vamos analisar cada uma das alternativas:
a) Incorreto: embora os atributos da tabela dimensão sejam, geralmente,
textuais e discretos, eles também podem ser numéricos.
b) Incorreto: a tabela fato tem uma cardinalidade de mapeamento de um para
um um para muitos com cada as tabelas dimensão.
c) Correto: a tabela fato deve conter atributos numéricos, visando proporcionar
dados para uma análise de atividades da empresa.
d) Incorreto: há um número teórico mínimo de 3 e máximo de 15 tabelas
dimensão. Não existe essa limitação para o número de tabelas dimensão, pois
a quantidade irá variar de acordo com o modelo escolhido e com o negócio
sendo modelado.
e) Incorreto: as tabelas dimensão comportam um número máximo teórico de
atributos. Também não há número máximo para a quantidade de atributos, até
porque as tabelas dimensão costumam ter uma grande quantidade de atributos.
Gabarito: Letra C.

28- (FCC - 2017 - DPE-RS - Analista - Banco de Dados) O processo de ETL


é composto por algumas fases, identificadas como entregar, limpar, extrair e
preparar. A ordem correta para a execução dessas fases é
a) limpar, preparar, extrair e entregar.
b) preparar, limpar, entregar e extrair.
c) entregar, preparar, limpar e extrair.
d) entregar, extrair, limpar e preparar.
e) extrair, limpar, preparar e entregar.

Prof. Ramon Souza 57 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Resolução:
O processo ETL consiste na extração (leitura de dados de uma ou mais bases
de dados), transformação (conversão dos dados extraídos de sua forma
anterior para a forma em que precisa estar para que possa ser colocado em um
data warehouse ou simplesmente outro banco de dados), e carga (colocar os
dados no data warehouse).
O processo de transformação engloba diversas atividades como a de limpeza
e a de preparação.
Nessa questão, entregar foi usado como sinônimo para carregar. Logo, a ordem
correta é:
Extrair -> Transformar -> Carregar OU
Extrair -> Limpar e Preparar -> Entregar
Gabarito: Letra E.

29- (FCC - 2017 - TRT - 24ª REGIÃO (MS) - Analista Judiciário -


Tecnologia da Informação) Uma das formas de apresentação de um banco
de dados multidimensional é através do modelo estrela. No centro de um
modelo estrela encontra-se a tabela de
a) dimensão e, ao seu redor, as tabelas de fatos.
b) dimensão, cuja chave primária deve ser composta.
c) núcleo e, ao seu redor, as tabelas de nível.
d) fatos, cuja chave primária deve ser simples.
e) fatos e, ao seu redor, as tabelas de dimensões.
Resolução:
O esquema estrela (star schema) consiste em uma tabela de fatos com
uma única tabela para cada dimensão. Neste esquema, existe uma tabela
fato central conectada a várias tabelas dimensão.

Gabarito: Letra E.

Prof. Ramon Souza 58 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

30- (FCC - 2017 - TRE-SP - Analista Judiciário - Análise de Sistemas)


No processo ETL de um data warehouse: (I) a tradução de valores codificados
conhecida como limpeza de dados (por exemplo, supondo que o sistema de
origem armazena 1 para sexo masculino e 2 para feminino, mas o data
warehouse armazena M para masculino e F para feminino) e (II) a geração de
valores de chaves substitutas (surrogate keys) são
a) integrantes da etapa de transformação.
b) integrantes das etapas de transformação e carga, respectivamente.
c) manipulações de dados, aplicáveis no processo pivoting.
d) elementos que possibilitam a conversão de drill-down para roll up.
e) integrantes da etapa de carga.
Resolução:
O processo ETL consiste na extração (leitura de dados de uma ou mais bases
de dados), transformação (conversão dos dados extraídos de sua forma
anterior para a forma em que precisa estar para que possa ser colocado em um
data warehouse ou simplesmente outro banco de dados), e carga (colocar os
dados no data warehouse).
O processo de transformação engloba diversas atividades como a de limpeza
e a de preparação. Nessa fase são corrigidos, padronizados e tratados os desvios
e inconsistências, transformando os dados de acordo com as regras do negócio.
Um conceito interessante trazido pela questão é o de Surrogate Key, que nada
mais é que uma chave de substituição. É um identificador único para cada
entidade do mundo modelado ou um objeto no banco de dados. A chave
substituta não é derivada de dados do aplicativo.
Gabarito: Letra A.

31- (FCC - 2016 - AL-MS - Técnico de Informática) Considere a figura


abaixo.

No processo de ETL mostrado na figura, I e II correspondem, respectivamente,


a
a) OLTP e Data Warehouse.

Prof. Ramon Souza 59 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

b) OLTP e Staging Area.


c) Data Mart e Staging Area.
d) Staging Area e OLTP.
e) Staging Area e Data Warehouse.
Resolução:
O processo de ETL (extração, transformação e carga) é responsável por
trazer os dados para o Data Warehouse de forma organizada, realizando a
extração desses dados de suas fontes, efetuando a limpeza ou ajustes desses
dados e carregando-os para o armazém de dados. Os dados são carregados
para uma área de preparação (staging area) antes de serem transformados e
carregados para o DW.
Gabarito: Letra E.

32- (FCC - 2016 - Prefeitura de Teresina - PI - Técnico de Nível Superior


- Analista de Sistemas) Em um Star Schema de um Data Warehouse – DW,
a tabela Dimensão possui característica
a) descritiva dentro do DW. Ela qualifica as informações provenientes da tabela
Fato; A tabela Fato possui característica quantitativa dentro do DW. A partir
dela são extraídas as métricas que são cruzadas com os dados das Dimensões.
Dimensões são ligadas entre si e qualquer uma delas se liga diretamente a
tabela Fato. Os dados devem ser normalizados.
b) quantitativa dentro do DW. Ela quantifica as informações provenientes da
tabela Fato; A tabela Fato possui característica descritiva dentro do DW. A partir
dela são extraídas as nomenclaturas que são quantificadas com os dados das
Dimensões. Dimensões são ligadas entre si. Os dados devem ser
desnormalizados.
c) quantitativa dentro do DW. Ela quantifica as informações provenientes da
tabela Fato; A tabela Fato possui característica descritiva dentro do DW. A partir
dela são extraídas as nomenclaturas que são quantificadas com os dados das
Dimensões. Dimensões não são ligadas entre si. Os dados devem ser
normalizados.
d) quantitativa dentro do DW. Ela quantifica as informações provenientes da
tabela Fato; A tabela Fato possui característica descritiva dentro do DW. A partir
dela são extraídas as nomenclaturas que são quantificadas com os dados das
Dimensões. Dimensões são ligadas entre si. Os dados devem ser normalizados.
e) descritiva dentro do DW. Ela qualifica as informações provenientes da tabela
Fato; A tabela Fato possui característica quantitativa dentro do DW. A partir
dela são extraídas as métricas que são cruzadas com os dados das Dimensões.
Dimensões são ligadas diretamente a tabela Fato. Outra característica marcante
é que os dados são desnormalizados.

Prof. Ramon Souza 60 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Resolução:
Questão exige as definições de tabela dimensão e tabela fato em um modelo
estrela, então vejamos qual a alternativa que traz essas definições, apontando
o erro das demais opções.
a) Incorreto: descritiva dentro do DW. Ela qualifica as informações
provenientes da tabela Fato; A tabela Fato possui característica quantitativa
dentro do DW. A partir dela são extraídas as métricas que são cruzadas com os
dados das Dimensões. Dimensões são ligadas entre si e qualquer uma delas se
liga diretamente a tabela Fato. Os dados devem
ser normalizados desnormalizados.
b) Incorreto: quantitativa descritiva dentro do DW. Ela
quantifica qualifica as informações provenientes da tabela Fato; A tabela Fato
possui característica descritiva quantitativa dentro do DW. A partir dela são
extraídas as nomenclaturas métricas que são quantificadas com os dados das
Dimensões. Dimensões são não são ligadas entre si. Os dados devem ser
desnormalizados.
c) Incorreto: quantitativa descritiva dentro do DW.
Ela quantifica qualifica as informações provenientes da tabela Fato; A tabela
Fato possui característica descritiva quantitativa dentro do DW. A partir dela
são extraídas as nomenclaturas métricas que são quantificadas com os dados
das Dimensões. Dimensões não são ligadas entre si. Os dados devem ser
normalizados normalizados desnormalizados.
d) Incorreto: quantitativa descritiva dentro do DW.
Ela quantifica qualifica as informações provenientes da tabela Fato; A tabela
Fato possui característica descritiva quantitativa dentro do DW. A partir dela
são extraídas as nomenclaturas métricas que são quantificadas com os dados
das Dimensões. Dimensões são não são ligadas entre si. Os dados devem
ser normalizados desnormalizados.
e) Correto: descritiva dentro do DW. Ela qualifica as informações provenientes
da tabela Fato; A tabela Fato possui característica quantitativa dentro do DW. A
partir dela são extraídas as métricas que são cruzadas com os dados das
Dimensões. Dimensões são ligadas diretamente a tabela Fato. Outra
característica marcante é que os dados são desnormalizados.
Gabarito: Letra E.

Prof. Ramon Souza 61 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

33- (FCC - 2016 - Prefeitura de Teresina - PI - Analista Tecnológico -


Analista de Suporte Técnico) O processo ETL é uma etapa importante no
projeto de um data warehouse. No processo ETL,
a) somente é possível realizar a carga periódica de dados no data warehouse
uma vez a cada semana.
b) a fase de transformação de dados envolve apenas alterações nos tipos vindos
do ambiente operacional.
c) a fase de extração envolve a leitura de dados do data warehouse e sua carga
posterior nos bancos de dados operacionais.
d) na fase de transferência de dados são desprezados os puramente literais.
e) um intervalo possível para a carga periódica de dados no data warehouse é
de 24 horas.
Resolução:
Vamos analisar cada um dos itens:
a) Incorreto: somente é possível realizar a carga periódica de dados no data
warehouse uma vez a cada semana. A carga pode ser definida de acordo
com as necessidades do negócio e com as mudanças nos ambientes de
dados transacionais.
b) Incorreto: a fase de transformação de dados envolve apenas alterações nos
tipos vindos do ambiente operacional. A fase de transformação envolve
também outros aspectos relacionados a limpeza e preparação dos
dados.
c) Incorreto: a fase de extração envolve a leitura de dados do data warehouse
e sua carga posterior nos bancos de dados operacionais. A carga dos dados
para o Data Warehouse é de realizada na fase de carga.
d) Incorreto: na fase de transferência de dados são desprezados os puramente
literais. Não existe fase de transferência, e não necessariamente serão
desprezados os dados literais.
e) Correto: um intervalo possível para a carga periódica de dados no data
warehouse é de 24 horas. Esse intervalo pode ser definido conforme a
necessidade do negócio ou conforme as modificações realizadas nas
fontes de dados.
Gabarito: Letra E.

Prof. Ramon Souza 62 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

34- (FCC - 2016 - Prefeitura de Teresina - PI - Analista Tecnológico -


Analista de Suporte Técnico) O modelo dimensional utilizado na modelagem
de data warehouse tem como característica:
a) Todas as tabelas dimensão de um mesmo modelo devem possuir o mesmo
número de atributos.
b) A tabela fato possui pelo menos 4 atributos numéricos, além das chaves
estrangeiras.
c) Poder ter quantas tabelas dimensionais, quantas forem necessárias para
representar o negócio sob análise.
d) As tabelas dimensão não necessitam ter atributos que sirvam como chave
primária.
e) A cardinalidade de relacionamento da tabela fato para as tabelas dimensão é
de um para um.
Resolução:
Vamos analisar cada um dos itens:
a) Incorreto: Todas as tabelas dimensão de um mesmo modelo devem possuir
o mesmo podem possuir diferentes número de atributos.
b) Incorreto: A tabela fato possui pelo menos 4 atributos numéricos, além das
chaves estrangeiras. Uma tabela fato não precisa ter atributos além das
chaves estrangeiras para as dimensões, embora possa ter.
c) Correto: Poder ter quantas tabelas dimensionais, quantas forem necessárias
para representar o negócio sob análise.
d) Incorreto: As tabelas dimensão não necessitam ter atributos que sirvam
como chave primária.
e) Incorreto: A cardinalidade de relacionamento da tabela fato para as tabelas
dimensão é de um para um um para muitos.
Gabarito: Letra C.

35- (FCC - 2016 - ELETROBRAS-ELETROSUL - Informática) Considere a


figura abaixo que ilustra um modelo multidimensional na forma de modelo
relacional em esquema estrela. Há uma tabela central que armazena as
transações que são analisadas e ao seu redor há as tabelas look up,
denominadas dimensões.

Prof. Ramon Souza 63 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

De acordo com o modelo estrela da figura e sua relação com um Data


Warehouse, é correto afirmar:
a) Uma das candidatas à chave primária da tabela central, denominada star
table schema, seria uma chave composta pelas chaves primárias de todas as
dimensões.
b) A tabela fato armazena os indicadores que serão analisados e as chaves que
caracterizam a transação. Cada dimensão registra uma entidade que caracteriza
a transação e os seus atributos.
c) As dimensões devem conter todos os atributos associados à sua chave
primária. Por causa disso, o modelo multidimensional estrela está na 3ª Forma
Normal.
d) O modelo estrela é derivado do modelo snowflake, ou seja, é o resultado da
aplicação da 1ª Forma Normal sobre as entidades dimensão.
e) Um Data Waherouse, por permitir a inclusão de dados por digitação,
necessita da aplicação de normalização para garantir a unicidade de valores.
Resolução:
Vamos analisar cada um dos itens:
a) Incorreto: Uma das candidatas à chave primária da tabela central,
denominada star table schema, seria uma chave composta pelas chaves
primárias de todas as dimensões.
b) Correto: A tabela fato armazena os indicadores que serão analisados e as
chaves que caracterizam a transação. Cada dimensão registra uma entidade
que caracteriza a transação e os seus atributos.
c) Incorreto: As dimensões devem conter todos os atributos associados à sua
chave primária. Por causa disso, o modelo multidimensional estrela está na 3ª
Forma Normal não é normalizado.
d) Incorreto: O modelo estrela é derivado do modelo snowflake, ou seja, é o
resultado da aplicação da 1ª Forma Normal sobre as entidades dimensão. O
modelo estrela não é normalizado.
e) Incorreto: Um Data Waherouse, por permitir a inclusão de dados por
digitação, necessita da aplicação de normalização para garantir a unicidade de
valores. Um Data Warehouse pode ser normalizado se for criado com
base em um modelo flocos de neve, mas será não normalizado ser
criado baseado no modelo estrela.
Gabarito: Letra B.

Prof. Ramon Souza 64 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

36- (FCC - 2016 - ELETROBRAS-ELETROSUL - Informática) Considere a


operação OLAP entre as tabelas abaixo

Esta operação
a) drill up corta o cubo, mantendo a mesma perspectiva de dimensão dos dados,
filtrando e reduzindo o escopo dos dados.
b) slice and dice corta o cubo, mantendo a mesma perspectiva de dimensão dos
dados, filtrando e reduzindo o escopo dos dados.
c) drill across na dimensão geográfica permite que o usuário diminua o nível de
granularidade, diminuindo o nível de detalhamento da informação.
d) drill down na dimensão tempo permite que o usuário aumente o nível de
granularidade, diminuindo o nível de detalhamento da informação.
e) drill up na dimensão tempo permite que o usuário aumente o nível de
granularidade, diminuindo o nível de detalhamento da informação.
Resolução:
A operação realizada na figura é a operação de drill up (ou roll up) na dimensão
tempo. A operação drill up sobe na hierarquia, agrupando unidades maiores
ao longo de uma dimensão, aumenta a granularidade e, consequentemente,
diminuindo o nível de detalhamento.
Observando a figura, vemos que houve uma redução no detalhamento da
dimensão tempo, que estava sendo exibida em Trimestres e passou a ser
exibida em anos.
Agora vejamos cada uma uma das alternativas:
a) Incorreto: drill up A operação slice and dice corta o cubo, mantendo a
mesma perspectiva de dimensão dos dados, filtrando e reduzindo o escopo dos
dados. Logo a descrição da operação drill up está errada.
b) Incorreto: slice and dice corta o cubo, mantendo a mesma perspectiva de
dimensão dos dados, filtrando e reduzindo o escopo dos dados. A descrição da
operação está correta, contudo não foi a operação demonstrada na
figura.

Prof. Ramon Souza 65 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

c) Incorreto: drill across A operação drill down na dimensão geográfica


permite que o usuário diminua o nível de granularidade, diminuindo o nível de
detalhamento da informação. A descrição refere-se a uma operação de drill
down, que contudo não foi a operação demonstrada na figura.
d) Incorreto: drill down drill up na dimensão tempo permite que o usuário
aumente o nível de granularidade, diminuindo o nível de detalhamento da
informação. A descrição refere-se a uma operação de drill up e não a drill
down conforme trazido no item.
e) Correto: drill up na dimensão tempo permite que o usuário aumente o nível
de granularidade, diminuindo o nível de detalhamento da informação.
Gabarito: Letra E.

37- (FCC - 2016 - TRT - 14ª Região (RO e AC) - Técnico Judiciário -
Tecnologia da Informação) Quando uma empresa utiliza Data Warehouse
(DW) é necessário carregá-lo para permitir a análise comercial. Para isso, os
dados de um ou mais sistemas devem ser extraídos e copiados para o DW em
um processo conhecido como
a) ERP.
b) BI.
c) CRM.
d) ETL.
e) Data Mart.
Resolução:
Vamos analisar cada um dos itens:
a) Incorreto: ERP é a sigla para Enterprise Resource Planning ou Sistema
Integrado de Gestão Empresarial. O ERP é um software que melhora a gestão
das empresas, automatizando os processos e integrando as atividades de
Vendas, Finanças, Contabilidade, Fiscal, Estoque, Compras, Recursos Humanos,
Produção e Logística.
b) Incorreto: O termo Business Intelligence (BI) é um conceito guarda-
chuva que combina arquitetura, ferramentas, bancos de dados,
ferramentas analíticas, aplicações e metodologias com os objetivos de
habilitar o acesso interativo aos dados, habilitar a manipulação desses
dados e prover aos gerentes de negócios e analistas a habilidade de conduzir
análises apropriadas.
c) Incorreto: Customer Relationship Management (CRM) é um termo para
Gestão de Relacionamento com o Cliente. Foi criado para definir toda uma classe
de sistemas de informações ou ferramentas que automatizam as funções de
contato com o cliente.

Prof. Ramon Souza 66 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

d) Correto: O processo ETL consiste na extração (leitura de dados de uma


ou mais bases de dados), transformação (conversão dos dados extraídos de
sua forma anterior para a forma em que precisa estar para que possa ser
colocado em um data warehouse ou simplesmente outro banco de dados), e
carga (colocar os dados no data warehouse).
e) Incorreto: os Data Marts são utilizados para armazenar subconjunto de
dados dos DW, abrangendo uma determinada área de assunto ou departamento
da organização.
Gabarito: Letra D.

38- (FCC - 2016 - TRT - 23ª REGIÃO (MT) - Analista Judiciário -


Tecnologia da Informação) Na abordagem Star Schema, usada para modelar
data warehouses, os fatos são representados na tabela de fatos, que
normalmente
a) é única em um diagrama e ocupa a posição central.
b) está ligada com cardinalidade n:m às tabelas de dimensão.
c) está ligada às tabelas de dimensão, que se relacionam entre si com
cardinalidade 1:n.
d) tem chave primária formada independente das chaves estrangeiras das
tabelas de dimensão.
e) está ligada a outras tabelas de fatos em um layout em forma de estrela.
Resolução:
O esquema estrela (star schema) consiste em uma tabela de fatos com
uma única tabela para cada dimensão. Neste esquema, existe uma tabela
fato central conectada a várias tabelas dimensão.
Com base nessa definição passemos a análise dos itens:
a) Correto: é única em um diagrama e ocupa a posição central.
b) Incorreto: está ligada com cardinalidade n:m 1:n às tabelas de dimensão.
c) Incorreto: está ligada às tabelas de dimensão, que se relacionam entre si
com cardinalidade 1:n n:m.
d) Incorreto: tem chave primária formada independente das chaves
estrangeiras das tabelas de dimensão.
e) Incorreto: está ligada a outras tabelas de fatos dimensões em um layout
em forma de estrela.
Gabarito: Letra A.

Prof. Ramon Souza 67 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

39- (FCC - 2015 - TRT - 9ª REGIÃO (PR) - Técnico Judiciário - Área


Apoio Especializado - Tecnologia da Informação) Uma plataforma de
Business Intelligence envolve o DW − Data Warehouse e diversos componentes,
dentre os quais, encontram-se
I. um subconjunto de informações do DW que podem ser identificados por
assuntos ou departamentos específicos.
II. ferramentas com capacidade de análise em múltiplas perspectivas das
informações armazenadas.
III. ferramentas com capacidade de descoberta de conhecimento relevante.
Encontram correlações e padrões dentro dos dados armazenados.
IV. processo de extração, tratamento e limpeza dos dados para inserção no DW.
Os componentes de I a IV são, correta e respectivamente,
a) Staging Area − Data Mining − OLAP − ETL.
b) Data Mart − OLAP − Data Mining − ETL.
c) OLTP − Drill Through − Drill Across − Staging Area.
d) Cubo de dados − Data Mining − OLTP − Operações Drill.
e) Staging Area − OLAP − Data Mining − Operações Drill.
Resolução:
Questão que requer o conhecimento acerca dos conceitos relativos à BI.
Vejamos os itens e a que conceito eles se referem:
I. Data mart: um subconjunto de informações do DW que podem ser
identificados por assuntos ou departamentos específicos.
II. OLAP: ferramentas com capacidade de análise em múltiplas perspectivas
das informações armazenadas.
III. Data mining: ferramentas com capacidade de descoberta de conhecimento
relevante. Encontram correlações e padrões dentro dos dados armazenados.
IV. ETL: processo de extração, tratamento e limpeza dos dados para inserção
no DW.
Gabarito: Letra B.

Prof. Ramon Souza 68 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

40- (FCC - 2015 - TRT - 4ª REGIÃO (RS) - Analista Judiciário -


Tecnologia da Informação) Considere a arquitetura geral de um sistema de
BI- Business Intelligence mostrada na figura abaixo.

Nesta arquitetura
a) Data Marts representam áreas de armazenamento intermediário criadas a
partir do processo de ETL. Auxiliam na transição dos dados das fontes OLTP
para o destino final no Data Warehouse.
b) OLAP é um subconjunto de informações extraído do Data Warehouse que
pode ser identificado por assuntos ou departamentos específicos. Utiliza uma
modelagem multidimensional conhecida como modelo estrela.
c) os dados armazenados no Data Warehouse são integrados na base única
mantendo as convenções de nomes, valores de variáveis e outros atributos
físicos de dados como foram obtidos das bases de dados originais.
d) o Data Warehouse não é volátil, permite apenas a carga inicial dos dados e
consultas a estes dados. Além disso, os dados nele armazenados são precisos
em relação ao tempo, não podendo ser atualizados.
e) Data Mining se refere ao processo que, na construção do Data Warehouse, é
utilizado para composição de análises e relatórios, armazenando dados
descritivos e qualificando a respectiva métrica associada.
Resolução:
Vamos analisar item a item desta questão:
a) Incorreto: Data Marts Staging area representam áreas de
armazenamento intermediário criadas a partir do processo de ETL. Auxiliam na
transição dos dados das fontes OLTP para o destino final no Data Warehouse.
Dependendo da abordagem utilizada, os Data Marts são utilizados para
armazenar subconjunto de dados dos DW, abrangendo uma determinada área
de assunto ou departamento da organização.
b) Incorreto: OLAP Data Mart é um subconjunto de informações extraído do
Data Warehouse que pode ser identificado por assuntos ou departamentos

Prof. Ramon Souza 69 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

específicos. Utiliza uma modelagem multidimensional conhecida como modelo


estrela.
O OLAP é uma abordagem para responder rapidamente questões ad hoc
através da execução de consultas analíticas multidimensionais em
repositórios de dados organizacionais (data warehouses, data marts).
c) Incorreto: os dados armazenados no Data Warehouse são integrados na
base única mantendo as convenções de nomes, valores de variáveis e outros
atributos físicos de dados como foram obtidos das bases de dados originais.
O processo ETL consiste na extração (leitura de dados de uma ou mais bases
de dados), transformação (conversão dos dados extraídos de sua forma
anterior para a forma em que precisa estar para que possa ser colocado em um
data warehouse ou simplesmente outro banco de dados), e carga (colocar os
dados no data warehouse).
d) Correto: o Data Warehouse não é volátil, permite apenas a carga inicial dos
dados e consultas a estes dados. Além disso, os dados nele armazenados são
precisos em relação ao tempo, não podendo ser atualizados.
Uma das características de um DW é a não-volatilidade, que vai ao encontro do
afirmado no item, pois o DW não sofre ALTERAÇÕES frequentes, ainda
que possa sempre ser ATUALIZADO com novos dados.
• Não voláteis: depois que os dados são inseridos em um DW, os usuários
não podem modificá-los ou atualizá-los. De modo geral, são permitidas
apenas operações de carga e consulta.
e) Incorreto: Data Mining Dimensão se refere ao processo a tabela que, na
construção do Data Warehouse, é utilizado para composição de análises e
relatórios, armazenando dados descritivos e qualificando a respectiva métrica
associada.
Data Mining consiste em um processo analítico projetado para explorar
grandes quantidades de dados (tipicamente relacionados a negócios, mercado
ou pesquisas científicas), na busca de padrões consistentes e/ou
relacionamentos sistemáticos entre variáveis e, então, validá-los aplicando os
padrões detectados a novos subconjuntos de dados.
Gabarito: Letra D.

Prof. Ramon Souza 70 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

41- (FCC - 2015 - TRT - 3ª Região (MG) - Analista Judiciário -


Tecnologia da Informação) No modelo de dados multidimensional existem
as operações suportadas pelas ferramentas OLAP para permitir a análise dos
dados. Com relação a estas operações, considere os dados abaixo.

Para movimentar a visão dos dados ao longo de níveis hierárquicos da dimensão


tempo, saindo do que consta na Tabela 2 para o que consta na Tabela 1, um
analista de TI deve utilizar a operação OLAP
a) drill down. b) drill across. c) pivot.
d) roll up. e) drill throught.
Resolução:
A operação realizada na figura é a operação de drill up (ou roll up) na dimensão
tempo. A operação drill up sobe na hierarquia, agrupando unidades maiores
ao longo de uma dimensão, aumenta a granularidade e, consequentemente,
diminuindo o nível de detalhamento.
Observando a figura, vemos que houve uma redução no detalhamento da
dimensão tempo, que estava sendo exibida em Trimestres e passou a ser
exibida em anos.
Vamos analisar item a item desta questão:
a) Incorreto: drill down fornece uma visão mais detalhada, desagregando
unidades menores ao longo da dimensão. Diminui a granularidade.
Assim, se fosse utilizada na dimensão tempo, poderia retornar o resultado por
uma unidade menor de tempo como meses ou semanas.
b) Incorreto: drill across serve realizar consultas que envolvem mais de
uma tabela fato.
c) Incorreto: pivot ou rotate é usado para alterar a orientação
dimensional de um relatório ou uma exibição de página de consulta ad hoc.
d) Correto: roll up sobe na hierarquia, agrupando unidades maiores ao longo
de uma dimensão. Aumenta a granularidade.
e) Incorreto: drill throught utiliza as instalações SQL para ir além do nível
inferior de um cubo de dados até suas tabelas relacionais back-end,
permitindo, desta forma, o acesso aos dados que não estão no modelo
multidimensional.
Gabarito: Letra D.

Prof. Ramon Souza 71 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

42- (FCC - 2015 - TRT - 3ª Região (MG) - Técnico Judiciário - Área


Tecnologia da Informação) A modelagem multidimensional é utilizada
especialmente para sumarizar e reestruturar dados e apresentá-los em visões
que suportem a análise dos valores desses dados. Um modelo multidimensional
é formado por dimensões, e por uma coleção de itens de dados composta de
dados de medidas e de contexto, denominada
a) slice.
b) fato.
c) versão.
d) schema.
e) pivot.
Resolução:
Vamos analisar item a item desta questão:
a) Incorreto: slice recupera um subconjunto, geralmente bidimensional,
de uma matriz multidimensional, que corresponde a um valor simples
atribuído a uma (ou mais) dimensões.
b) Correto: Os atributos de análise de decisão das tabelas fato consistem em
medidas de desempenho, métricas operacionais, medidas agregadas e
todas as outras métricas necessárias para analisar o desempenho da
organização.
c) Incorreto: versão diz respeito a um controle da versão atual do banco de
dados, podendo ser controlada por um sistema de controle de versões.
d) Incorreto: schema refere-se a organização do modelo que pode ser estrela
ou flocos de neve.
e) Incorreto: pivot ou rotate é usado para alterar a orientação
dimensional de um relatório ou uma exibição de página de consulta ad hoc.
Gabarito: Letra B.

43- (FCC - 2015 - TRT - 3ª Região (MG) - Técnico Judiciário - Área


Tecnologia da Informação) Um técnico de TI precisa utilizar um subconjunto
de dados de um Data Warehouse direcionado à área administrativa de um
Tribunal. Esses dados serão armazenados em um banco de dado modelado
multidimensionalmente, que será criado capturando-se dados diretamente de
sistemas transacionais, buscando as informações relevantes para os processos
de negócio da área administrativa. Esse banco de dados será um
a) OLAP.
b) MOLAP.
c) Data Mining.

Prof. Ramon Souza 72 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

d) Big Data
e) Data Mart.
Resolução:
Vamos analisar item a item desta questão:
a) Incorreto: O OLAP é uma abordagem para responder rapidamente
questões ad hoc através da execução de consultas analíticas
multidimensionais em repositórios de dados organizacionais (data
warehouses, data marts).
b) Incorreto: As ferramentas MOLAP (Processamento Analítico
Multidimensional On-Line) são uma variação do OLAP que requerem pré-
computação e o armazenamento de informações no cubo de dados, isto
é, um pré-processamento.
c) Incorreto: Data Mining consiste em um processo analítico projetado para
explorar grandes quantidades de dados (tipicamente relacionados a negócios,
mercado ou pesquisas científicas), na busca de padrões consistentes e/ou
relacionamentos sistemáticos entre variáveis e, então, validá-los aplicando os
padrões detectados a novos subconjuntos de dados.
d) Incorreto: Big Data é um termo amplamente utilizado na atualidade para
nomear conjuntos de dados muito grandes ou complexos, que os
aplicativos de processamento de dados tradicionais ainda não conseguem lidar.
e) Correto: os Data Marts são utilizados para armazenar subconjunto de
dados dos DW, abrangendo uma determinada área de assunto ou departamento
da organização.
Gabarito: Letra E.

44- (FCC - 2015 - Prefeitura de São Luís - MA - Auditor de Controle


Interno - Área de Tecnologia da Informação (TI)) Uma organização
precisa utilizar o máximo de informação para criar e manter vantagem
competitiva. Profissionais tomadores de decisão exigem dos sistemas de suporte
à decisão mais recursos para análise, front-ends que suportem consultas ad
hoc, etc. Neste contexto, um DW − Data Warehouse pode ser muito útil, pois é
a) uma coleção de dados orientada por processos, integrada, que não varia no
tempo, cujo objetivo é extrair informação dos bancos de dados da organização,
suportando a tomada de decisão.
b) um banco de dados relacional contendo dados extraídos do ambiente de
produção, que foram selecionados e integrados, tendo sido otimizados para
processamento de transações e não para processamento de consulta.
c) capaz de integrar os dados internos e externos da organização em uma
estrutura única. Uma vez obtida a integração, ferramentas OLAP e de data
mining podem ser utilizadas para a análise dos dados.

Prof. Ramon Souza 73 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

d) a consolidação de outros recursos de informações provenientes de planilhas


eletrônicas, documentos textuais, etc. Como não inclui os dados armazenados
em bases de dados relacionais, provê grande agilidade nas transações.
e) um banco de dados transacional que reflete a realidade do negócio. Oferece
um conjunto de ferramentas OLAP e de ERP que são utilizadas para extrair
dados dos processos da organização, suportando a tomada de decisão.
Resolução:
Um Data Warehouse é uma coleção de dados orientada a assunto,
integrada, não volátil, variável no tempo para suporte às decisões da
gerência. Vejamos estas características de modo mais detalhado:
❖ Orientado a assunto: os dados armazenados em um DW são
organizados por assunto, tratando de temas específicos e importantes
para o negócio da organização.

❖ Integrados: o DW é um depósito de dados integrados de múltiplas


fontes, processados para armazenamento em um modelo
multidimensional.

❖ Variante no tempo: um DW mantém os dados históricos, permitindo


a detecção de tendências, desvios e relações de longo prazo para
previsões e comparações.

❖ Não voláteis: depois que os dados são inseridos em um DW, os


usuários não podem modificá-los ou atualizá-los. De modo geral, são
permitidas apenas operações de carga e consulta.
Gabarito: Letra C.

45- (FCC - 2015 - TCE-CE - Técnico de Controle Externo-Auditoria de


Tecnologia da Informação) As ferramentas Online Analytical Processing −
OLAP suportam análise de dados em um ambiente multidimensional no qual é
possível estruturar logicamente os dados na forma de um cubo. Dentre os
recursos disponíveis nessas ferramentas, há a operação
a) dice, que extrai um subcubo do cubo original executando uma operação de
seleção em duas ou mais dimensões.
b) roll-up, que seleciona dados de uma única dimensão de um cubo, resultando
em um subcubo.
c) drill-down, que aplica uma agregação sobre o cubo de dados, aumentando o
nível de granularidade dentro de uma dimensão e reduzindo o detalhamento da
informação.
d) slice, que é uma operação de visualização que rotaciona os eixos de um
determinado cubo, provendo uma visão alternativa dos dados.

Prof. Ramon Souza 74 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

e) pivot, que provê uma forma de navegar de um dado com menor nível de
detalhe para um dado com maior nível de detalhe, descendo em uma hierarquia
de uma dimensão ou introduzindo dimensões adicionais.
Resolução:
Vamos analisar item a item desta questão:
a) Correto: dice, que extrai um subcubo do cubo original executando uma
operação de seleção em duas ou mais dimensões.
b) Incorreto: roll-up slice, que seleciona dados de uma única dimensão de um
cubo, resultando em um subcubo.
c) Incorreto: drill-down drill-up, que aplica uma agregação sobre o cubo de
dados, aumentando o nível de granularidade dentro de uma dimensão e
reduzindo o detalhamento da informação.
d) Incorreto: slice pivot, que é uma operação de visualização que rotaciona
os eixos de um determinado cubo, provendo uma visão alternativa dos dados.
e) Incorreto: pivot drill-down, que provê uma forma de navegar de um dado
com menor nível de detalhe para um dado com maior nível de detalhe, descendo
em uma hierarquia de uma dimensão ou introduzindo dimensões adicionais.
Gabarito: Letra A.

46- (FCC - 2015 - CNMP - Analista do CNMP - Tecnologia de Informação


e Comunicação Desenvolvimento de Sistemas) Considere que a equipe de
Analistas de Desenvolvimento de Sistemas do CNMP está projetando a
arquitetura para o Data Warehouse (DW) da instituição, conforme mostra a
figura abaixo:

É correto afirmar que esta arquitetura

Prof. Ramon Souza 75 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

a) é bottom-up. Garante a existência de um único conjunto de aplicações para


ETL, ou seja, extração, limpeza e integração dos dados, embora os processos
de manutenção e monitoração fiquem descentralizados.
b) é bottom-up, pois primeiro a equipe cria um DW e depois parte para a
segmentação, ou seja, divide o DW em áreas menores gerando pequenos
bancos orientados por assuntos aos departamentos.
c) é bottom-up. Permite um rápido desenvolvimento, pois a construção dos Data
Marts é altamente direcionada. Normalmente um Data Mart pode ser colocado
em produção em um período de 2 a 3 meses.
d) é top-down. A partir do DW são extraídos os dados e metadados para os Data
Marts. Nos Data Marts as informações estão em maior nível de sumarização e,
normalmente, não apresentam o nível histórico encontrado no DW.
e) é top-down, pois possui um retorno de investimento muito rápido ou um
faster pay back. O propósito desta arquitetura é a construção de um DW
incremental a partir de Data Marts independentes.
Resolução:
A figura trazida nessa questão apresenta a abordagem EDW ou de Bill Inmon
abordagem de desenvolvimento de cima para baixo (top-down) que adapta
metodologias e ferramentas de banco de dados relacionais tradicionais
às necessidades de desenvolvimento de um data warehouse de toda a empresa.
Nesta abordagem, primeiramente é construído o Data Warehouse,
modelando toda a empresa para se chegar a um único modelo corporativo,
partindo posteriormente para os Data Marts construídos por assuntos ou
departamentais.
É importante destacar que a abordagem top-down requer um maior tempo para
o retorno sobre o investimento, pois os resultados só serão obtidos ao término
da implantação do DW completo.
Gabarito: Letra D.

47- (FCC - 2015 - TRT - 15ª Região (SP) - Analista Judiciário –


Tecnologia da Informação) No contexto de Business Intelligence, os sistemas
OLAP e OLTP se diferenciam em diversas características. Na tabela abaixo, no
que diz respeito às características, está INCORRETO:

Prof. Ramon Souza 76 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

a) Característica - Performance. /OLAP - Otimização para leitura e geração


de análise e relatórios gerenciais. / OLTP - Alta velocidade na manipulação de
dados operacionais, porém ineficiente para geração de análises gerenciais.
b) Característica - Tipo de permissões nos dados. /OLAP - É permitido apenas
inserção e leitura. Para o usuário está disponível apenas a leitura. / OLTP -
Podem ser feitas leitura, inserção, modificação e exclusão de dados.
c) Característica - Estrutura dos dados./OLAP - Armazenamento feito em Data
Warehouse com otimização no desempenho em grandes volumes de dados. /
OLTP - Armazenamento feito em bancos de dados convencionais pelos sistemas
de informação da organização.
d) Característica - Foco./OLAP - Nível operacional da organização. Visa a
execução operacional do negócio. / OLTP - Nível estratégico da organização.
Visa a análise empresarial e tomada de decisão.
e) Característica - Volatilidade. /OLAP - Dados históricos e não voláteis que
praticamente não sofrem alterações salvo em casos específicos motivados por
erros ou inconsistências. / OLTP -Dados voláteis, passíveis de modificação e
exclusão.
Resolução:
As Ferramentas OLAP visam suportar a análise decisões, logo são mais utilizadas
no nível estratégico da organização. Já as ferramentas OLTP visam realizar
funções comerciais cotidianas, atuando, portanto, no nível operacional. Logo, o
item d inverte as características do OLAP e OLTP.
O esquema a seguir diferencia essas duas ferramentas:

OLTP OLAP

•Realizar funções comerciais cotidianas •Suportar análise de decisões

•Bancos de dados transacionais •DWs ou DMs

•Inclusão, alteração, exclusão e consulta •Carga e consulta.

•Relatórios de rotina, periódicos e •Relatórios e consultas Ad hoc,


estreitamente focados multidimensionais, amplamente focados

•Execução mais rápida •Execução mais lenta

•Atualização contínua •Atualização em lote

• Recursos dos bancos de dados relacionais. •Recursos de computação distribuída,


multiprocesamento e bancos
especializados.

Gabarito: Letra D.

Prof. Ramon Souza 77 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

48- (FCC - 2015 - TRE-RR - Analista Judiciário - Análise de Sistemas)


Os dados de sistemas OLAP se baseiam nas informações contidas nos diversos
softwares utilizados pela empresa (ERPs, planilhas, arquivos texto, arquivos
XML etc.). Estes sistemas possuem uma camada onde estão os dados originais
e outra camada onde estão os dados tratados (um gigantesco repositório de
dados sobre assuntos diversos preparados para serem consultados por um
sistema OLAP), que chamamos de
a) Data Mining.
b) Online Transactional Database.
c) Data Mart.
d) Datawarehouse.
e) Big Data.
Resolução:
Vamos analisar item a item desta questão:
a) Incorreto: Data Mining consiste em um processo analítico projetado para
explorar grandes quantidades de dados (tipicamente relacionados a negócios,
mercado ou pesquisas científicas), na busca de padrões consistentes e/ou
relacionamentos sistemáticos entre variáveis e, então, validá-los aplicando os
padrões detectados a novos subconjuntos de dados.
b) Incorreto: através de ferramentas OLTP (processamento de transação
on-line), que inclui inserções, atualizações e exclusões, e suportam
requisitos de consulta de informação. A principal ênfase das ferramentas OLTP
é realizar processamento de consultas rapidamente, mantendo a integridade
dos dados em ambientes multiusuários e a efetividade em transações por
segundo.
c) Incorreto: os Data Marts são utilizados para armazenar subconjunto de
dados dos DW, abrangendo uma determinada área de assunto ou departamento
da organização.
d) Correto: Um Data Warehouse (DW) é um conjunto de dados
produzidos para apoiar a tomada de decisão, ou um repositório de dados
atuais e históricos de potencial interesse para gestores de toda a
organização.
e) Incorreto: Big Data é um termo amplamente utilizado na atualidade para
nomear conjuntos de dados muito grandes ou complexos, que os
aplicativos de processamento de dados tradicionais ainda não conseguem lidar.
Gabarito: Letra D.

Prof. Ramon Souza 78 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

49- (FCC - 2014 - TCE-GO - Analista de Controle Externo - Tecnologia


da Informação) As ferramentas OLAP permitem efetuar a exploração dos
dados de um Data Warehouse (DW). Em relação a este tema, é correto afirmar:
a) A análise multidimensional representa os dados como tabelas, de forma
semelhante aos bancos de dados relacionais.
b) Combinando as dimensões, o usuário tem uma visão dos dados de um DW,
podendo efetuar operações básicas como slice and dice, drill down e roll up.
c) O resultado das operações OLAP não permite a descoberta de tendências e
cenários; isso é conseguido com sistemas ERP, capazes de transformar dados
do DW em informações estratégicas.
d) As operações slice and dice realizam a alteração nos dados do DW
modificando o nível de granularidade da consulta.
e) Para navegar nas dimensões do DW são utilizadas as operações drill, que não
afetam o nível de granularidade da consulta.
Resolução:
Vamos analisar item a item desta questão:
a) Incorreto: A análise multidimensional representa os dados como tabelas
um cubo de dados, de forma semelhante aos bancos de dados relacionais.
b) Correto: Usando o OLAP, é possível navegar pelo banco de dados e visualizar
um subconjunto específico dos dados (e sua progressão ao longo do tempo)
alterando as orientações dos dados e definindo cálculos analíticos. As
operações OLAP (slice, dice, drill-up, drill-down, drill-across, drill-througt) são
usadas para essas funções.
c) Incorreto: O resultado das operações OLAP não permite a descoberta de
tendências e cenários; isso é conseguido com sistemas ERP, capazes de
transformar dados do DW em informações estratégicas.
d) Incorreto: As operações slice and dice drill-down/up realizam a alteração
nos dados do DW modificando o nível de granularidade da consulta.
e) Incorreto: Para navegar nas dimensões do DW são utilizadas as operações
drill, que não afetam o nível de granularidade da consulta.
Gabarito: Letra B.

Prof. Ramon Souza 79 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

50- (FCC - 2014 - TJ-AP - Analista Judiciário - Área Apoio Especializado


- Tecnologia da Informação - Administração em Redes de
Computadores) Nas ferramentas de navegação OLAP (On-Line Analytical
Processing), é possível navegar entre diferentes níveis de detalhamento de um
cubo de dados. Supondo-se que um relatório esteja consolidado por Estados de
um país, o processo que possibilita que os dados passem a ser apresentados
por cidades e bairros, é denominado
a) drill down.
b) data mining.
c) botton-up.
d) drill up.
e) top-down.
Resolução:
As operações de Drill Down / Up permitem a navegação entre os níveis de
dados que vão desde o mais resumido até o mais detalhado (baixo).
❖ Drill up (Roll up): sobe na hierarquia, agrupando unidades maiores ao
longo de uma dimensão. Aumenta a granularidade.
❖ Drill down: fornece uma visão mais detalhada, desagregando unidades
menores ao longo da dimensão. Diminui a granularidade.
Logo, como na questão querermos ir de um nível mais alto (país ou estado)
para um nível mais baixo (cidade ou bairro), devemos utilizar a operação drill-
down.
Gabarito: Letra A.

Caderno de Questões Sobre o Tema

O caderno referente ao assunto desta aula pode ser acessado em Caderno de


Questões – Business Intelligence.

Prof. Ramon Souza 80 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

6. RISCO EXPONENCIAL

Arquitetura de BI

Business Intelligence
Combina arquitetura, ferramentas, bancos de dados, ferramentas analíticas,
aplicações e metodologias com os objetivos de habilitar o acesso interativo aos
dados, habilitar a manipulação desses dados e prover aos gerentes de negócios e
analistas a habilidade de conduzir análises apropriadas

Business Process
Data Warehouse Business Analytics Management User Interface
(BPM)

Ampliam o Fornecem a
Repositório de dados Variedade de
monitoramento, visualização de
atuais e históricos de ferramentas e
medição e dados para os
potencial interesse técnicas para
comparação de gestores. Ex.:
para gestores de toda trabalhar dados e
indicadores de dashboars, cockpits,
a organização. informações.
desempenho. portais.

Data Warehouse (DW)

Conjunto de dados Repositório de dados atuais e


produzidos para apoiar a Data Warehouse históricos de potencial interesse
tomada de decisão. para gestores de toda a organização.

Orientados a
Integrados Variante no tempo Não voláteis
assunto

Processo de Data Warehousing

Prof. Ramon Souza 81 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Arquiteturas de DW

Prof. Ramon Souza 82 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Abordagens de desenvolvimento de DW

Inmon ou EDW Kimball ou Data Mart

•Abordagem Top-down. •Abordagem Bottom-up.

•EDW alimenta os data marts departamentais •Data marts são integrados por um barramento
(DW->DM). ou middleware (DM->DW).

•Adapta metodologias e ferramentas de •Emprega modelagem dimensional.


banco de dados relacionais.

•Modelo de dados normalizado (3FN). •Modelo de dados não normalizado.

•Orientado a assunto ou a dados. •Orientado a processo.

•Baixa acessibilidade a usuários finais, mas •Alta acessibilidade a usuários finais.


voltado para os profissionais de TI.

•Fornece uma solução técnica baseada em •Entrega uma solução que torna fácil o acesso
métodos e técnicas comprovadas de BD. direto pelos usuários às consultas aos
dados com bons tempos de resposta.

•Consultas realizadas nos data marts. •Consultas realizadas no Data Warehouse.

Modelagem dimensional

Modelagem
dimensional

Técnica de modelagem
Permite uso mais intuitivo
de BD utilizada para a
Auxílio às consultas em para o processamento
representação dos dados
um Data Warehouse. analítico pelas ferramentas
nos BDs
OLAP.
multidimensionais.

Dados são modelados em Hipercubo: matriz com


matrizes multidimensioanais mais de três dimensões.
ou cubos de dados.

Os dados do cubo podem


Desempenho da consulta
ser consultados
no cubo pode ser muito
diretamente a partir de
melhor do que no modelo
qualquer combinação de
de dados relacional.
suas dimensões.

Prof. Ramon Souza 83 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Tabelas fato e tabelas dimensão

Modelo Dimensional

Tabela Fato Tabela Dimensão

Contêm Representam
Tuplas que Formada por
Abordam entidades
correspondem aos atributos informações
como os de negócio,
fatos observados descritivos de
dados serão geralmente
decorrentes de necessários para classificação
analisados com
processos de realizar a análise e agregação
e relacioname
negócios e links de decisões e sobre as linhas
resumidos. nto
externos. relatórios de da tabela fato.
consulta. hierárquico.

Característica quantitativa no DW Característica qualitativa no DW

Atributos consistem em medidas de Atributos são, geralmente, textuais e discretos.


desempenho, métricas operacionais,
medidas agregadas e outras métricas.
Geralmente têm muitas colunas ou atributos.

Fatos ou medidas podem ser: Atributos servem como fonte de:

Aditivas Semi-aditivas Restrições de consulta

Ex. Lucro líquido Ex. quantidade


em estoque
Agrupamentos

Não aditivas Textual

Ex. porcentagem Raros e devem Rótulos de relatório


de vendas ser evitados

Chaves e relacionamentos entre as tabelas fato e dimensão

Duas ou mais chaves Conectam a tabela fato Única chave primária para
estrangeiras por tabela fato às tabelas dimensão.
cada dimensão

Geralmente simples
Um subconjunto das chaves
estrangeiras pode identificar
unicamente a tabela fato.

Sempre possui
Chave primária composta Dimensão Tempo

Prof. Ramon Souza 84 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Tipos de tabelas fatos

Fato transacional
• Mais comuns.
• Linhas representam evento de medição em um ponto no espaço
e no tempo.

Fato agregada
• Sumariza os dados de uma tabela fato.
• Otimiza o tempo de consulta.
• Esforço adicional de manutenação e gasto com
armazenamento.

Fato consolidada
• Agrega duas tabelas fato (dois processos).
• Complexidade extra para o ETL.

Fato Snapshot Periódico


• Baseada no tempo.
• Geralmente criada a partir de uma fato existente.
• Uma linha resume muitos eventos de medição ocorridos em um
período padrão.

Fato Snapshot Acumulado


• Utiliza mais de um momento no tempo.
• Uma linha resume os eventos de medição que ocorrem em
etapas previsíveis entre o início e o final de um processo.

Fato sem fato


• Tabela somente com a intersecção de dimensões.
• Utilizada quando é necessário comparar ou cruzar algo entre duas
dimensões e não existe uma métrica para fazer essas
comparações.

Prof. Ramon Souza 85 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Esquemas multidimensionais

Esquema estrela Esquema floco de neve

(star schema) (snowflake)


Uma tabela de fatos com uma única Tabela de fatos central (geralmente
tabela para cada dimensão. apenas uma) que estão conectadas a
múltiplas dimensões.

Tabelas dimensão são normalizadas,


Tabelas não são normalizadas.
geralmente, até a 3FN.

Tabelas dimensão ligadas Tabelas dimensão organizadas em


diretamente a tabela fato. hierarquia.

Menor número de tabelas. Maior número de tabelas.

Rápido tempo de resposta e


Modelo mais complexo.
simplicidade.

Facilidade de manutenção para


Facilidade de manutenção para
alteração das estruturas, pois não
estruturas somente leitura.
há redundância.

Consultas mais simples, pois há Consultas mais complexas e difíceis


menor necessidade de junção de de entender, pois há necessidade de
tabelas. realizar muitas junções.

Dimensão Dimensão Dimensão Dimensão

Tabela Fato
Tabela Fato

Dimensão Dimensão Dimensão


Dimensão Dimensão
Normalizada Normalizada Normalizada
Desnormalizada Desnormalizada

Constelação de fatos
Conjunto de tabelas fato Multiestrela: se for
compartilham dimensões semelhante ao esquema Limitam as consultas ao
comuns (dimensões estrela, mas com mais de Data Warehouse.
conformes). uma tabela fato.

Dimensão Dimensão Dimensão


Conforme
Tabela Fato Tabela Fato

Dimensão Dimensão Dimensão


Conforme

Prof. Ramon Souza 86 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

OLTP x OLAP

OLTP OLAP

•Realizar funções comerciais cotidianas •Suportar análise de decisões

•Bancos de dados transacionais •DWs ou DMs

•Inclusão, alteração, exclusão e consulta •Carga e consulta.

•Relatórios de rotina, periódicos e •Relatórios e consultas Ad hoc,


estreitamente focados multidimensionais, amplamente focados

•Execução mais rápida •Execução mais lenta

•Atualização contínua •Atualização em lote

• Recursos dos bancos de dados relacionais. •Recursos de computação distribuída,


multiprocesamento e bancos
especializados.

Variações OLAP

• Armazenamento de informações no
cubo de dados.
• Requer pré-computação.
• Ganho de desempenho.
MOLAP • Longo período para carga dos
dados.
• Baixa escalabilidade.
• Permite consultas ad-hoc.

• Acessam os dados em um banco


Quanto a de dados relacional e geram
estrutura de ROLAP consultas SQL.
armazenamento • Não requer pré-computação.
• Baixo desempenho, pois requer
cópia adicional de dados.
Variações OLAP

• Alta escalabilidade.

• Combinação de ROLAP com


MOLAP.
HOLAP
• Alto desempenho
• Alta escalabilidade.
• Arquitetura de maior custo.

DOLAP • Disparam uma consulta de uma


estação cliente para o servidor.

Quanto a origem
da consulta

WOLAP • Disparam uma consulta de via


navegador web para o servidor.

Prof. Ramon Souza 87 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Operações OLAP

Recupera um subconjunto (fatia) do cubo, geralmente


bidimensional.

Slice

Valor simples atribuído a uma (ou mais) dimensões.

Extração de um subcubo.

Dice

Operação slice em mais de duas dimensões de um cubo.

Alterar a orientação dimensional de um relatório ou uma exibição de


página
Pivot ou
rotate

Troca as dimensões da matriz.


Operações OLAP

Sobe na hierarquia

Drill up Reduz o nível de detalhe

Aumenta a granularidade.

Desce na hierarquia

Drill down Aumenta o nível de detalhe

Reduz a granularidade.

Kimball: realizar consultas que envolvem mais de uma tabela fato.

Drill across

Internet: Navegação entre os níveis de dados, saltando níveis.

Han, Kamber e Pei: utiliza as instalações SQL para ir além do nível


inferior de um cubo de dados até as tabelas relacionais back-end

Drill through

Internet: usuário passa de uma informação contida em uma dimensão


para uma outra.

Prof. Ramon Souza 88 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Processo de ETL

Prof. Ramon Souza 89 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

7. LISTAS DE EXERCÍCIOS
Questões comentadas durante a aula
1- (CESPE - 2019 - SEFAZ-RS - Auditor Fiscal da Receita Estadual -
Bloco I) A respeito do BI (business intelligence), assinale a opção correta.
a) O BI consiste na transformação metódica e consciente das informações
exclusivamente prestadas pelos tomadores de decisão em novas formas de
conhecimento, para evolução dos negócios e dos resultados organizacionais.
b) ETL é o processo de análise de dados previsto pela arquitetura de BI.
c) As técnicas do BI objetivam definir regras para a formatação adequada dos
dados, com vista a sua transformação em depósitos estruturados de
informações, sem considerar a sua origem.
d) O repositório de dados analíticos de BI é representado pelas diversas bases
de dados relacionais e por repositórios de dados que utilizem modelagens
relacionais.
e) A camada de apresentação de uma arquitetura de BI é aquela em que as
informações são organizadas e centralizadas.

2- (FCC - 2018 - DPE-AM - Analista em Gestão Especializado de


Defensoria - Analista de Banco de Dados) Uma das características
fundamentais de um ambiente de data warehouse está em
a) servir como substituto aos bancos de dados operacionais de uma empresa,
na eventualidade da ocorrência de problemas com tais bancos de dados.
b) ser de utilização exclusiva da área de aplicações financeiras das empresas.
c) proporcionar um ambiente que permita realizar análise dos negócios de uma
empresa com base nos dados por ela armazenados.
d) ser de uso prioritário de funcionários responsáveis pela área de telemarketing
das empresas.
e) armazenar apenas os dados mais atuais (máximo de 3 meses de criação),
independentemente da área de atuação de cada empresa.

3- (FCC - 2016 - TRT - 20ª REGIÃO (SE) - Técnico Judiciário -


Tecnologia da Informação) Considere, por hipótese, que o Tribunal Regional
do Trabalho da 20a Região tenha optado pela implementação de um DW (Data
Warehouse) que inicia com a extração, transformação e integração dos dados
para vários DMs (Data Marts) antes que seja definida uma infraestrutura
corporativa para o DW. Esta implementação
a) é conhecida como top down.

Prof. Ramon Souza 90 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

b) permite um retorno de investimento apenas em longo prazo, ou seja, um


slower pay back
c) tem como objetivo a construção de um sistema OLAP incremental a partir de
DMs independentes.
d) não garante padronização dos metadados, podendo criar inconsistências de
dados entre os DMs.
e) tem como vantagem a criação de legamarts ou DMs legados que facilitam e
agilizam futuras integrações.

4- (FCC - 2014 - TJ-AP - Analista Judiciário - Área Apoio Especializado


- Tecnologia da Informação - Administração em Redes de
Computadores) Os sistemas de Data Warehouse utilizam-se de um modelo de
dados diferente dos bancos de dados tradicionais, que proporciona ganhos de
desempenho nas consultas. Esse modelo é conhecido como modelagem
a) dinâmica.
b) dimensional.
c) fixa.
d) online.
e) transacional.

5- (FCC - 2018 - TCE-RS - Auditor Público Externo - Administração


Pública ou de Empresas) Considerando a teoria da modelagem dimensional,
composta por tabelas dimensão e tabela fato, utilizada em data warehouses,
a) todas as tabelas dimensão devem possuir o mesmo número de atributos.
b) o grau de relacionamento da tabela fato para as tabelas dimensão é de muitos
para muitos.
c) a tabela fato não deve possuir atributos do tipo numérico.
d) não há relacionamento entre as tabelas dimensão e a tabela fato.
e) não há limitação quanto ao número de tabelas dimensão.

6- (CESPE - 2018 - TCE-PB - Auditor de Contas Públicas) A modelagem


dimensional é uma técnica de projeto de banco de dados capaz de suportar, em
um data warehouse, consultas de usuários finalísticos ligados a um negócio.
Conceitos como tabela-fato, tabela agregada e métricas fazem parte de
modelagem, julgue os itens a seguir.
I- Uma tabela-fato armazena, para fins estatísticos, as medições de
desempenho.

Prof. Ramon Souza 91 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

II- A tabela agregada é composta de atributos e contêm a descrição do negócio.


III- A tabela agregada é utilizada para reduzir o tempo de acesso de uma
consulta de banco de dados.
IV- Métricas são as informações que se armazenam em tabela-fato e permitem
medir o desempenho dos processos do negócio.
V- As métricas não aditivas, assim como os valores percentuais ou relativos,
podem ser manipuladas livremente.
Estão certos apenas os itens,
a) I e II
b) I e III
c) II e V
d) III e IV
e) IV e V

7- (FCC - 2018 - SABESP - Analista de Gestão - Sistemas) Um Analista


está trabalhando em um Data Warehouse − DW que utiliza no centro do modelo
uma única tabela que armazena as métricas e as chaves para as tabelas ao seu
redor (que descrevem os dados que estão na tabela central) às quais está
ligada. O esquema de modelagem utilizado pelo DW, a denominação da tabela
central e a denominação das tabelas periféricas são, respectivamente,
a) floco de neve, base, granulares.
b) estrela, fato, dimensões.
c) constelação, fato, granulares.
d) atomic, base, branches.
e) anel, base, dimensões.

8- (FCC - 2016 - AL-MS - Técnico de Informática) As ferramentas OLAP


− Online Analytical Processing
a) utilizam operações drill para navegar nas dimensões.
b) são as aplicações às quais os usuários finais têm acesso para fazerem
consultas e análise a partir dos dados armazenados em bancos de dados
transacionais (OLTP).
c) utilizam operações slice and dice para modificar o nível de granularidade da
consulta.

Prof. Ramon Souza 92 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

d) possibilitam a análise multidimensional para a descoberta de tendências e


cenários, de forma a transformar dados de um Data Warehouse em informação
estratégica.
e) representam os dados como tabelas ao invés de dimensões.

9- (FCC - 2018 - DPE-AM - Analista em Gestão Especializado de


Defensoria - Analista de Banco de Dados) As ferramentas OLAP
compreendem diversas formas de organização dos dados de um data
warehouse. Dentre tais formas de organização, no tipo de ferramenta OLAP
denominado
a) ROLAP, os cubos pré-calculados são armazenados no servidor do ambiente
de data warehouse.
b) DOLAP, as consultas são feitas diretamente no modelo dimensional do data
warehouse.
c) MOLAP, as consultas são feitas diretamente no modelo dimensional do data
warehouse.
d) DOLAP, os cubos pré-calculados são armazenados no servidor do ambiente
de data warehouse.
e) MOLAP, os cubos pré-calculados são armazenados no servidor do ambiente
de data warehouse.

10- (FCC - 2018 - SEFAZ-SC - Auditor-Fiscal da Receita Estadual -


Auditoria e Fiscalização (Prova 3)) Atenção: Para responder à questão,
considere o seguinte caso hipotético:
Um Auditor da Receita Estadual pretende descobrir, após denúncia, elementos que
possam caracterizar e fundamentar a possível existência de fraudes, tipificadas como
sonegação tributária, que vêm ocorrendo sistematicamente na arrecadação do ICMS. A
denúncia é que, frequentemente, caminhões das empresas Org1, Org2 e Org3 não são
adequadamente fiscalizados nos postos de fronteiras. Inobservâncias de procedimentos
podem ser avaliadas pelo curto período de permanência dos caminhões dessas
empresas na operação de pesagem, em relação ao período médio registrado para
demais caminhões.

Para caracterizar e fundamentar a existência de possíveis fraudes, o Auditor deverá


coletar os registros diários dos postos por, pelo menos, 1 ano e elaborar demonstrativos
para análises mensais, trimestrais e anuais.

O Auditor poderá fazer análises de pesagens diversas a partir de operações


feitas sobre o cubo de dados multidimensional do Data Warehouse, por
exemplo, trocar a ordem, ou aumentar ou diminuir a granularidade dos dados
em análise, entre outras, como é o caso do uso da operação OLAP

Prof. Ramon Souza 93 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

a) drill down, que permite ao Auditor aumentar o nível de detalhe de análise


das informações de pesagens.
b) drill off, que permite ao Auditor mudar o foco dimensional de análise das
informações de pesagens.
c) pivot, que permite ao Auditor pular um intervalo dimensional de análise das
informações de pesagens.
d) drill accross, que permite ao Auditor mudar o escopo de análise das
informações de pesagens, filtrando e rearranjando determinadas partes do cubo
de dados.
e) roll out, que permite ao Auditor diminuir o nível de detalhe de análise das
informações de pesagens.

11- (FCC - 2018 - DPE-AM - Analista em Gestão Especializado de


Defensoria - Analista de Banco de Dados) Sobre o processo de ETL, aplicado
a data warehouse, é correto afirmar que
a) a fase de extração de dados consiste em obter os dados do servidor do data
warehouse.
b) a fase de transformação consiste em realizar modificações nos dados
carregados, adequando seus valores ao modelo definido para o data warehouse.
c) as fases de extração e carga de dados são realizadas de forma simultânea.
d) a fase de carga de dados visa eliminar valores nulos contidos nos bancos de
dados transacionais da empresa.
e) a fase de carga de dados consiste em inserir os dados transformados nos
bancos de dados transacionais da empresa.

Prof. Ramon Souza 94 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Business Intelligence
12- (CESPE - 2019 - SEFAZ-RS - Auditor Fiscal da Receita Estadual -
Bloco I) O data warehouse diferencia-se dos bancos de dados transacionais
porque
a) trabalha com dados atuais, mas não com dados históricos.
b) faz uso intenso de operações diárias e de processamento de transações
continuamente.
c) possui milhares de usuários de diferentes níveis hierárquicos dentro da
organização.
d) tem dimensionalidade genérica e níveis de agregação ilimitados.
e) utiliza ferramentas de prospecção e consulta de dados baseadas em OLTP
(on-line transaction processing).

13- (CESPE - 2019 - SEFAZ-RS - Auditor Fiscal da Receita Estadual -


Bloco I) Com relação aos modelos de dados multidimensionais, assinale a
opção correta.
a) A principal característica da tabela de fatos é a ausência de dados
redundantes, o que melhora o desempenho nas consultas.
b) Esses modelos são cubos de dados, sendo cada cubo representado por uma
única tupla com vários atributos.
c) Esses modelos proporcionam visões hierárquicas, ou seja, exibição roll-up ou
drill-down.
d) Os modelos de dados multidimensionais dão ênfase à coleta e às transações
de dados.
e) Esses modelos não utilizam processos de transferência de dados, mas sim
acessos nativos do próprio SGBD utilizado.

14- (CESPE - 2018 - FUB - Técnico de Tecnologia da Informação) Acerca


de bases de dados multidimensionais, julgue o item seguinte.
O modelo em estrela de um banco de dados multidimensional tem como objetivo
representar e manipular dados complexos, visando tornar aqueles dados mais
representativos em semântica e construções de modelagens por meio de nós e
suas ligações.

15- (CESPE - 2018 - FUB - Técnico de Tecnologia da Informação) Acerca


de bases de dados multidimensionais, julgue o item seguinte.
O operador drill-down relaciona-se ao processo de apresentar dados do nível
mais baixo da hierarquia de dados de um esquema para níveis mais altos.

Prof. Ramon Souza 95 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

16- (CESPE - 2018 - IPHAN - Analista I - Área 7) Julgue o item que se


segue, a respeito de tecnologias de sistemas de informação.
O data warehouse é integrado, não volátil e orientado a assuntos, contudo,
embora lide com dados e os armazene para a tomada de decisões gerenciadas,
não é considerado um banco de dados, pois é variável em relação ao tempo.

17- (CESPE - 2018 - IPHAN - Analista I - Área 7) Julgue o item que se


segue, a respeito de tecnologias de sistemas de informação.
Na modelagem estrela, o desenvolvimento de um data warehouse permite que
todas as métricas sejam sumarizadas em relação a todas as suas dimensões,
visto que as chaves primárias da tabela fato são uma composição de chaves
estrangeiras de todas as dimensões.

18- (CESPE - 2018 - EBSERH - Analista de Tecnologia da Informação)


Julgue o item que se segue, a respeito de arquitetura e tecnologias de sistemas
de informação.
Usualmente, os data warehouses dão apoio a análises de série temporal e de
tendências, as quais requerem maior volume de dados históricos do que os que
geralmente são mantidos em bancos de dados transacionais.

19- (CESPE - 2018 - TCM-BA - Auditor Estadual de Controle Externo)


Acerca de modelagem dimensional, assinale a opção correta.
a) As granularidades fundamentais para classificar todas as tabelas fato de um
modelo dimensional são: transacional, snapshot periódico e snapshot
acumulado.
b) Os fatos e dimensões não são tabelas do banco de dados, pois, no modelo
dimensional, são componentes do cubo de um data warehouse.
c) No modelo estrela, as dimensões são normalizadas para tornar mais ágeis as
consultas analíticas.
d) O modelo floco de neve (SnowFlake) aumenta o espaço de armazenamento
dos dados dimensionais, pois acrescenta várias tabelas ao modelo, todavia torna
mais simples a navegação por software que utilizarão o banco de dados.
e) Os códigos e as descrições associadas, usadas como nomes de colunas em
relatórios e como filtros em consultas, não devem ser gravados em tabelas
dimensionais.

Prof. Ramon Souza 96 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

20- (CESPE - 2018 - STM - Técnico Judiciário - Programação de


Sistemas) A respeito de ETL, julgue o item a seguir.
O ambiente ETL permite a visualização dos dados para análise de maneira
multidimensional.

21- (CESPE - 2018 - CGM de João Pessoa - PB - Auditor Municipal de


Controle Interno - Desenvolvimento de Sistemas) A respeito de business
intelligence, julgue o próximo item.
Business intelligence pode ser definido como um processo inteligente de coleta,
organização, análise, compartilhamento e monitoração de dados que, depois de
processados, geram informações para o suporte e para a tomada de decisões
no ambiente de negócios.

22- (CESPE - 2018 - CGM de João Pessoa - PB - Auditor Municipal de


Controle Interno - Desenvolvimento de Sistemas) A respeito de business
intelligence, julgue o próximo item.
Na modelagem multidimensional utilizada em data warehouses para se prover
melhor desempenho, a tabela fato central deve relacionar-se às suas dimensões
por meio da chave primária oriunda da fonte de dados original. O valor dessa
chave deve ser idêntico ao da fonte, para que tenha valor semântico e garanta
que o histórico das transações seja mantido.

23- (CESPE - 2018 - CGM de João Pessoa - PB - Auditor Municipal de


Controle Interno - Desenvolvimento de Sistemas) A respeito de business
intelligence, julgue o próximo item.
O modelo snowflake acrescenta graus de normalização às tabelas de dimensões,
eliminando redundâncias; em termos de eficiência na obtenção de informações,
seu desempenho é melhor que o do modelo estrela, o qual, apesar de possuir
um único fato, possui tamanho maior que o do snowflake, considerando-se a
desnormalização das tabelas de dimensões.

24- (CESPE - 2018 - CGM de João Pessoa - PB - Auditor Municipal de


Controle Interno - Desenvolvimento de Sistemas) A respeito de business
intelligence, julgue o próximo item.
Uma ferramenta de ETL deve ser capaz de extrair dados de fontes heterogêneas,
copiá-los para uma área de transição, onde possam ser convertidos conforme o
padrão estabelecido, e, ainda, realizar limpeza e correção nesses dados, de
acordo com regras preestabelecidas.

Prof. Ramon Souza 97 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

25- (FCC - 2018 - Prefeitura de São Luís - MA - Auditor Fiscal de


Tributos I - Tecnologia da Informação (TI)) Para extrair dados de fontes
de dados heterogêneas que irão alimentar um Data Warehouse de forma
homogênea e concisa, servindo de base para gerar relatórios e gráficos para
apoiar as decisões da gerência da organização, deve-se utilizar um processo
conhecido como
a) OLAP.
b) Data Mart.
c) ETL.
d) OLTP.
e) Data Mining.

26- (FCC - 2018 - SABESP - Técnico em Gestão 01 - Informática) Um


Técnico executou uma operação de visualização OLAP que rotacionou os eixos
de um determinado cubo, provendo uma visão alternativa dos dados, ou seja,
permitindo a visão de suas várias faces. Ele executou a operação
a) slice.
b) dice
c) drill across.
d) pivot.
e) roll up.

27- (FCC - 2017 - DPE-RS - Analista - Banco de Dados) Um dos modelos


mais utilizados no projeto e implementação de um data warehouse é o modelo
dimensional ou multidimensional. Em um modelo dimensional (composto por
uma tabela fato e várias tabelas dimensão),
a) as tabelas dimensão devem conter apenas atributos do tipo literal.
b) a tabela fato tem uma cardinalidade de mapeamento de um para um com
cada tabela dimensão.
c) a tabela fato deve conter atributos numéricos, visando proporcionar dados
para uma análise de atividades da empresa.
d) há um número teórico mínimo de 3 e máximo de 15 tabelas dimensão.
e) as tabelas dimensão comportam um número máximo teórico de atributos.

Prof. Ramon Souza 98 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

28- (FCC - 2017 - DPE-RS - Analista - Banco de Dados) O processo de ETL


é composto por algumas fases, identificadas como entregar, limpar, extrair e
preparar. A ordem correta para a execução dessas fases é
a) limpar, preparar, extrair e entregar.
b) preparar, limpar, entregar e extrair.
c) entregar, preparar, limpar e extrair.
d) entregar, extrair, limpar e preparar.
e) extrair, limpar, preparar e entregar.

29- (FCC - 2017 - TRT - 24ª REGIÃO (MS) - Analista Judiciário -


Tecnologia da Informação) Uma das formas de apresentação de um banco
de dados multidimensional é através do modelo estrela. No centro de um
modelo estrela encontra-se a tabela de
a) dimensão e, ao seu redor, as tabelas de fatos.
b) dimensão, cuja chave primária deve ser composta.
c) núcleo e, ao seu redor, as tabelas de nível.
d) fatos, cuja chave primária deve ser simples.
e) fatos e, ao seu redor, as tabelas de dimensões.

30- (FCC - 2017 - TRE-SP - Analista Judiciário - Análise de Sistemas)


No processo ETL de um data warehouse: (I) a tradução de valores codificados
conhecida como limpeza de dados (por exemplo, supondo que o sistema de
origem armazena 1 para sexo masculino e 2 para feminino, mas o data
warehouse armazena M para masculino e F para feminino) e (II) a geração de
valores de chaves substitutas (surrogate keys) são
a) integrantes da etapa de transformação.
b) integrantes das etapas de transformação e carga, respectivamente.
c) manipulações de dados, aplicáveis no processo pivoting.
d) elementos que possibilitam a conversão de drill-down para roll up.
e) integrantes da etapa de carga.

Prof. Ramon Souza 99 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

31- (FCC - 2016 - AL-MS - Técnico de Informática) Considere a figura


abaixo.

No processo de ETL mostrado na figura, I e II correspondem, respectivamente,


a
a) OLTP e Data Warehouse.
b) OLTP e Staging Area.
c) Data Mart e Staging Area.
d) Staging Area e OLTP.
e) Staging Area e Data Warehouse.
32- (FCC - 2016 - Prefeitura de Teresina - PI - Técnico de Nível Superior
- Analista de Sistemas) Em um Star Schema de um Data Warehouse – DW,
a tabela Dimensão possui característica
a) descritiva dentro do DW. Ela qualifica as informações provenientes da tabela
Fato; A tabela Fato possui característica quantitativa dentro do DW. A partir
dela são extraídas as métricas que são cruzadas com os dados das Dimensões.
Dimensões são ligadas entre si e qualquer uma delas se liga diretamente a
tabela Fato. Os dados devem ser normalizados.
b) quantitativa dentro do DW. Ela quantifica as informações provenientes da
tabela Fato; A tabela Fato possui característica descritiva dentro do DW. A partir
dela são extraídas as nomenclaturas que são quantificadas com os dados das
Dimensões. Dimensões são ligadas entre si. Os dados devem ser
desnormalizados.
c) quantitativa dentro do DW. Ela quantifica as informações provenientes da
tabela Fato; A tabela Fato possui característica descritiva dentro do DW. A partir
dela são extraídas as nomenclaturas que são quantificadas com os dados das
Dimensões. Dimensões não são ligadas entre si. Os dados devem ser
normalizados.
d) quantitativa dentro do DW. Ela quantifica as informações provenientes da
tabela Fato; A tabela Fato possui característica descritiva dentro do DW. A partir
dela são extraídas as nomenclaturas que são quantificadas com os dados das
Dimensões. Dimensões são ligadas entre si. Os dados devem ser normalizados.

Prof. Ramon Souza 100 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

e) descritiva dentro do DW. Ela qualifica as informações provenientes da tabela


Fato; A tabela Fato possui característica quantitativa dentro do DW. A partir
dela são extraídas as métricas que são cruzadas com os dados das Dimensões.
Dimensões são ligadas diretamente a tabela Fato. Outra característica marcante
é que os dados são desnormalizados.

33- (FCC - 2016 - Prefeitura de Teresina - PI - Analista Tecnológico -


Analista de Suporte Técnico) O processo ETL é uma etapa importante no
projeto de um data warehouse. No processo ETL,
a) somente é possível realizar a carga periódica de dados no data warehouse
uma vez a cada semana.
b) a fase de transformação de dados envolve apenas alterações nos tipos vindos
do ambiente operacional.
c) a fase de extração envolve a leitura de dados do data warehouse e sua carga
posterior nos bancos de dados operacionais.
d) na fase de transferência de dados são desprezados os puramente literais.
e) um intervalo possível para a carga periódica de dados no data warehouse é
de 24 horas.

34- (FCC - 2016 - Prefeitura de Teresina - PI - Analista Tecnológico -


Analista de Suporte Técnico) O modelo dimensional utilizado na modelagem
de data warehouse tem como característica:
a) Todas as tabelas dimensão de um mesmo modelo devem possuir o mesmo
número de atributos.
b) A tabela fato possui pelo menos 4 atributos numéricos, além das chaves
estrangeiras.
c) Poder ter quantas tabelas dimensionais, quantas forem necessárias para
representar o negócio sob análise.
d) As tabelas dimensão não necessitam ter atributos que sirvam como chave
primária.
e) A cardinalidade de relacionamento da tabela fato para as tabelas dimensão é
de um para um.

Prof. Ramon Souza 101 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

35- (FCC - 2016 - ELETROBRAS-ELETROSUL - Informática) Considere a


figura abaixo que ilustra um modelo multidimensional na forma de modelo
relacional em esquema estrela. Há uma tabela central que armazena as
transações que são analisadas e ao seu redor há as tabelas look up,
denominadas dimensões.

De acordo com o modelo estrela da figura e sua relação com um Data


Warehouse, é correto afirmar:
a) Uma das candidatas à chave primária da tabela central, denominada star
table schema, seria uma chave composta pelas chaves primárias de todas as
dimensões.
b) A tabela fato armazena os indicadores que serão analisados e as chaves que
caracterizam a transação. Cada dimensão registra uma entidade que caracteriza
a transação e os seus atributos.
c) As dimensões devem conter todos os atributos associados à sua chave
primária. Por causa disso, o modelo multidimensional estrela está na 3ª Forma
Normal.
d) O modelo estrela é derivado do modelo snowflake, ou seja, é o resultado da
aplicação da 1ª Forma Normal sobre as entidades dimensão.
e) Um Data Waherouse, por permitir a inclusão de dados por digitação,
necessita da aplicação de normalização para garantir a unicidade de valores.

36- (FCC - 2016 - ELETROBRAS-ELETROSUL - Informática) Considere a


operação OLAP entre as tabelas abaixo

Prof. Ramon Souza 102 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

Esta operação
a) drill up corta o cubo, mantendo a mesma perspectiva de dimensão dos dados,
filtrando e reduzindo o escopo dos dados.
b) slice and dice corta o cubo, mantendo a mesma perspectiva de dimensão dos
dados, filtrando e reduzindo o escopo dos dados.
c) drill across na dimensão geográfica permite que o usuário diminua o nível de
granularidade, diminuindo o nível de detalhamento da informação.
d) drill down na dimensão tempo permite que o usuário aumente o nível de
granularidade, diminuindo o nível de detalhamento da informação.
e) drill up na dimensão tempo permite que o usuário aumente o nível de
granularidade, diminuindo o nível de detalhamento da informação.

37- (FCC - 2016 - TRT - 14ª Região (RO e AC) - Técnico Judiciário -
Tecnologia da Informação) Quando uma empresa utiliza Data Warehouse
(DW) é necessário carregá-lo para permitir a análise comercial. Para isso, os
dados de um ou mais sistemas devem ser extraídos e copiados para o DW em
um processo conhecido como
a) ERP.
b) BI.
c) CRM.
d) ETL.
e) Data Mart.

38- (FCC - 2016 - TRT - 23ª REGIÃO (MT) - Analista Judiciário -


Tecnologia da Informação) Na abordagem Star Schema, usada para modelar
data warehouses, os fatos são representados na tabela de fatos, que
normalmente
a) é única em um diagrama e ocupa a posição central.
b) está ligada com cardinalidade n:m às tabelas de dimensão.
c) está ligada às tabelas de dimensão, que se relacionam entre si com
cardinalidade 1:n.
d) tem chave primária formada independente das chaves estrangeiras das
tabelas de dimensão.
e) está ligada a outras tabelas de fatos em um layout em forma de estrela.

Prof. Ramon Souza 103 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

39- (FCC - 2015 - TRT - 9ª REGIÃO (PR) - Técnico Judiciário - Área


Apoio Especializado - Tecnologia da Informação) Uma plataforma de
Business Intelligence envolve o DW − Data Warehouse e diversos componentes,
dentre os quais, encontram-se
I. um subconjunto de informações do DW que podem ser identificados por
assuntos ou departamentos específicos.
II. ferramentas com capacidade de análise em múltiplas perspectivas das
informações armazenadas.
III. ferramentas com capacidade de descoberta de conhecimento relevante.
Encontram correlações e padrões dentro dos dados armazenados.
IV. processo de extração, tratamento e limpeza dos dados para inserção no DW.
Os componentes de I a IV são, correta e respectivamente,
a) Staging Area − Data Mining − OLAP − ETL.
b) Data Mart − OLAP − Data Mining − ETL.
c) OLTP − Drill Through − Drill Across − Staging Area.
d) Cubo de dados − Data Mining − OLTP − Operações Drill.
e) Staging Area − OLAP − Data Mining − Operações Drill.

40- (FCC - 2015 - TRT - 4ª REGIÃO (RS) - Analista Judiciário -


Tecnologia da Informação) Considere a arquitetura geral de um sistema de
BI- Business Intelligence mostrada na figura abaixo.

Nesta arquitetura
a) Data Marts representam áreas de armazenamento intermediário criadas a
partir do processo de ETL. Auxiliam na transição dos dados das fontes OLTP
para o destino final no Data Warehouse.
b) OLAP é um subconjunto de informações extraído do Data Warehouse que
pode ser identificado por assuntos ou departamentos específicos. Utiliza uma
modelagem multidimensional conhecida como modelo estrela.

Prof. Ramon Souza 104 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

c) os dados armazenados no Data Warehouse são integrados na base única


mantendo as convenções de nomes, valores de variáveis e outros atributos
físicos de dados como foram obtidos das bases de dados originais.
d) o Data Warehouse não é volátil, permite apenas a carga inicial dos dados e
consultas a estes dados. Além disso, os dados nele armazenados são precisos
em relação ao tempo, não podendo ser atualizados.
e) Data Mining se refere ao processo que, na construção do Data Warehouse, é
utilizado para composição de análises e relatórios, armazenando dados
descritivos e qualificando a respectiva métrica associada.

41- (FCC - 2015 - TRT - 3ª Região (MG) - Analista Judiciário -


Tecnologia da Informação) No modelo de dados multidimensional existem
as operações suportadas pelas ferramentas OLAP para permitir a análise dos
dados. Com relação a estas operações, considere os dados abaixo.

Para movimentar a visão dos dados ao longo de níveis hierárquicos da dimensão


tempo, saindo do que consta na Tabela 2 para o que consta na Tabela 1, um
analista de TI deve utilizar a operação OLAP
a) drill down. b) drill across. c) pivot.
d) roll up. e) drill throught.

42- (FCC - 2015 - TRT - 3ª Região (MG) - Técnico Judiciário - Área


Tecnologia da Informação) A modelagem multidimensional é utilizada
especialmente para sumarizar e reestruturar dados e apresentá-los em visões
que suportem a análise dos valores desses dados. Um modelo multidimensional
é formado por dimensões, e por uma coleção de itens de dados composta de
dados de medidas e de contexto, denominada
a) slice.
b) fato.
c) versão.
d) schema.
e) pivot.

Prof. Ramon Souza 105 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

43- (FCC - 2015 - TRT - 3ª Região (MG) - Técnico Judiciário - Área


Tecnologia da Informação) Um técnico de TI precisa utilizar um subconjunto
de dados de um Data Warehouse direcionado à área administrativa de um
Tribunal. Esses dados serão armazenados em um banco de dado modelado
multidimensionalmente, que será criado capturando-se dados diretamente de
sistemas transacionais, buscando as informações relevantes para os processos
de negócio da área administrativa. Esse banco de dados será um
a) OLAP.
b) MOLAP.
c) Data Mining.
d) Big Data
e) Data Mart.

44- (FCC - 2015 - Prefeitura de São Luís - MA - Auditor de Controle


Interno - Área de Tecnologia da Informação (TI)) Uma organização
precisa utilizar o máximo de informação para criar e manter vantagem
competitiva. Profissionais tomadores de decisão exigem dos sistemas de suporte
à decisão mais recursos para análise, front-ends que suportem consultas ad
hoc, etc. Neste contexto, um DW − Data Warehouse pode ser muito útil, pois é
a) uma coleção de dados orientada por processos, integrada, que não varia no
tempo, cujo objetivo é extrair informação dos bancos de dados da organização,
suportando a tomada de decisão.
b) um banco de dados relacional contendo dados extraídos do ambiente de
produção, que foram selecionados e integrados, tendo sido otimizados para
processamento de transações e não para processamento de consulta.
c) capaz de integrar os dados internos e externos da organização em uma
estrutura única. Uma vez obtida a integração, ferramentas OLAP e de data
mining podem ser utilizadas para a análise dos dados.
d) a consolidação de outros recursos de informações provenientes de planilhas
eletrônicas, documentos textuais, etc. Como não inclui os dados armazenados
em bases de dados relacionais, provê grande agilidade nas transações.
e) um banco de dados transacional que reflete a realidade do negócio. Oferece
um conjunto de ferramentas OLAP e de ERP que são utilizadas para extrair
dados dos processos da organização, suportando a tomada de decisão.

45- (FCC - 2015 - TCE-CE - Técnico de Controle Externo-Auditoria de


Tecnologia da Informação) As ferramentas Online Analytical Processing −
OLAP suportam análise de dados em um ambiente multidimensional no qual é
possível estruturar logicamente os dados na forma de um cubo. Dentre os
recursos disponíveis nessas ferramentas, há a operação

Prof. Ramon Souza 106 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

a) dice, que extrai um subcubo do cubo original executando uma operação de


seleção em duas ou mais dimensões.
b) roll-up, que seleciona dados de uma única dimensão de um cubo, resultando
em um subcubo.
c) drill-down, que aplica uma agregação sobre o cubo de dados, aumentando o
nível de granularidade dentro de uma dimensão e reduzindo o detalhamento da
informação.
d) slice, que é uma operação de visualização que rotaciona os eixos de um
determinado cubo, provendo uma visão alternativa dos dados.
e) pivot, que provê uma forma de navegar de um dado com menor nível de
detalhe para um dado com maior nível de detalhe, descendo em uma hierarquia
de uma dimensão ou introduzindo dimensões adicionais.

46- (FCC - 2015 - CNMP - Analista do CNMP - Tecnologia de Informação


e Comunicação Desenvolvimento de Sistemas) Considere que a equipe de
Analistas de Desenvolvimento de Sistemas do CNMP está projetando a
arquitetura para o Data Warehouse (DW) da instituição, conforme mostra a
figura abaixo:

É correto afirmar que esta arquitetura


a) é bottom-up. Garante a existência de um único conjunto de aplicações para
ETL, ou seja, extração, limpeza e integração dos dados, embora os processos
de manutenção e monitoração fiquem descentralizados.
b) é bottom-up, pois primeiro a equipe cria um DW e depois parte para a
segmentação, ou seja, divide o DW em áreas menores gerando pequenos
bancos orientados por assuntos aos departamentos.

Prof. Ramon Souza 107 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

c) é bottom-up. Permite um rápido desenvolvimento, pois a construção dos Data


Marts é altamente direcionada. Normalmente um Data Mart pode ser colocado
em produção em um período de 2 a 3 meses.
d) é top-down. A partir do DW são extraídos os dados e metadados para os Data
Marts. Nos Data Marts as informações estão em maior nível de sumarização e,
normalmente, não apresentam o nível histórico encontrado no DW.
e) é top-down, pois possui um retorno de investimento muito rápido ou um
faster pay back. O propósito desta arquitetura é a construção de um DW
incremental a partir de Data Marts independentes.

47- (FCC - 2015 - TRT - 15ª Região (SP) - Analista Judiciário –


Tecnologia da Informação) No contexto de Business Intelligence, os sistemas
OLAP e OLTP se diferenciam em diversas características. Na tabela abaixo, no
que diz respeito às características, está INCORRETO:

a) Característica - Performance. /OLAP - Otimização para leitura e geração


de análise e relatórios gerenciais. / OLTP - Alta velocidade na manipulação de
dados operacionais, porém ineficiente para geração de análises gerenciais.
b) Característica - Tipo de permissões nos dados. /OLAP - É permitido apenas
inserção e leitura. Para o usuário está disponível apenas a leitura. / OLTP -
Podem ser feitas leitura, inserção, modificação e exclusão de dados.
c) Característica - Estrutura dos dados./OLAP - Armazenamento feito em Data
Warehouse com otimização no desempenho em grandes volumes de dados. /
OLTP - Armazenamento feito em bancos de dados convencionais pelos sistemas
de informação da organização.
d) Característica - Foco./OLAP - Nível operacional da organização. Visa a
execução operacional do negócio. / OLTP - Nível estratégico da organização.
Visa a análise empresarial e tomada de decisão.
e) Característica - Volatilidade. /OLAP - Dados históricos e não voláteis que
praticamente não sofrem alterações salvo em casos específicos motivados por
erros ou inconsistências. / OLTP -Dados voláteis, passíveis de modificação e
exclusão.

Prof. Ramon Souza 108 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

48- (FCC - 2015 - TRE-RR - Analista Judiciário - Análise de Sistemas)


Os dados de sistemas OLAP se baseiam nas informações contidas nos diversos
softwares utilizados pela empresa (ERPs, planilhas, arquivos texto, arquivos
XML etc.). Estes sistemas possuem uma camada onde estão os dados originais
e outra camada onde estão os dados tratados (um gigantesco repositório de
dados sobre assuntos diversos preparados para serem consultados por um
sistema OLAP), que chamamos de
a) Data Mining.
b) Online Transactional Database.
c) Data Mart.
d) Datawarehouse.
e) Big Data.

49- (FCC - 2014 - TCE-GO - Analista de Controle Externo - Tecnologia


da Informação) As ferramentas OLAP permitem efetuar a exploração dos
dados de um Data Warehouse (DW). Em relação a este tema, é correto afirmar:
a) A análise multidimensional representa os dados como tabelas, de forma
semelhante aos bancos de dados relacionais.
b) Combinando as dimensões, o usuário tem uma visão dos dados de um DW,
podendo efetuar operações básicas como slice and dice, drill down e roll up.
c) O resultado das operações OLAP não permite a descoberta de tendências e
cenários; isso é conseguido com sistemas ERP, capazes de transformar dados
do DW em informações estratégicas.
d) As operações slice and dice realizam a alteração nos dados do DW
modificando o nível de granularidade da consulta.
e) Para navegar nas dimensões do DW são utilizadas as operações drill, que não
afetam o nível de granularidade da consulta.

50- (FCC - 2014 - TJ-AP - Analista Judiciário - Área Apoio Especializado


- Tecnologia da Informação - Administração em Redes de
Computadores) Nas ferramentas de navegação OLAP (On-Line Analytical
Processing), é possível navegar entre diferentes níveis de detalhamento de um
cubo de dados. Supondo-se que um relatório esteja consolidado por Estados de
um país, o processo que possibilita que os dados passem a ser apresentados
por cidades e bairros, é denominado
a) drill down.
b) data mining.
c) botton-up.

Prof. Ramon Souza 109 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

d) drill up.
e) top-down.

Caderno de Questões Sobre o Tema

O caderno referente ao assunto desta aula pode ser acessado em Caderno de


Questões – Business Intelligence.

Prof. Ramon Souza 110 de 111


www.exponencialconcursos.com.br
Curso: TI para Área Fiscal
Teoria e Questões comentadas
Prof. Ramon Souza

8. GABARITO
1 C 11 B 21 Certo 31 E 41 D
2 C 12 D 22 Errado 32 E 42 B
3 D 13 C 23 Errado 33 E 43 E

4 B 14 Errado 24 Certo 34 C 44 C
5 E 15 Errado 25 C 35 B 45 A
6 D 16 Errado 26 D 36 E 46 D

7 B 17 Errado 27 C 37 D 47 D
8 D 18 Certo 28 E 38 A 48 D
9 E* 19 A 29 E 39 B 49 B

10 A 20 Errado 30 A 40 D 50 A

9. REFERÊNCIAS
AUSTIN, Benny. Kimball and Inmon DW Models. Disponível em:
<https://bennyaustin.wordpress.com/2010/05/02/kimball-and-inmon-dw-models/>
Acesso em: 24 nov. 2017.

BARBIERI, Carlos. BI2--Business intelligence: Modelagem & Qualidade. Elsevier


Editora, 2011.

ELMASRI, Ramez; NAVATHE, Shamkant B. Sistema de Banco de Dados. 6ed. São


Paulo: Pearson Addison Wesley, 2011.

HAN, Jiawei; PEI, Jian; KAMBER, Micheline. Data mining: concepts and techniques.
Elsevier, 2011.

KIMBALL, Ralph; ROSS, Margy. The data warehouse toolkit: the complete guide to
dimensional modeling. John Wiley & Sons, 2011.

KIMBALL, Ralph. Dimensional Modeling Techniques. Disponível em: <


https://www.kimballgroup.com/data-warehouse-business-intelligence-
resources/kimball-techniques/dimensional-modeling-techniques/> Acesso em: 29 jan.
2018.

NOVAIS, Ramon R. C. Modelagem Dimensional. Monografia. Faculdade de Tecnologia


de São Paulo. 2012.
PITON, Rafael. Data Warehouse – Tipos de Fatos. Disponível em:
<https://rafaelpiton.com.br/data-warehouse-tipos-fatos/> Acesso em: 29 jan. 2018.
ROSS, Margy. The 10 Essential Rules of Dimensional Modeling. 2009. Disponível
em: <http://www.kimballgroup.com/2009/05/the-10-essential-rules-of-dimensional-
modeling/> Acesso em: 24 nov. 2017.

TURBAN, Efraim et al. Business intelligence: A managerial approach. Upper Saddle


River, NJ: Pearson Prentice Hall, 2008.

Prof. Ramon Souza 111 de 111


www.exponencialconcursos.com.br

Você também pode gostar