Você está na página 1de 3

QUESTÃO SEÇÃO A

O curso abrangeu uma ampla gama de tópicos relacionados ao tratamento e análise


de grandes conjuntos de dados. Durante as aulas, foram apresentados conceitos
fundamentais, tais como a modelagem de dados, incluindo o modelo
entidade-relacionamento e o modelo dimensional, além da álgebra relacional, que
fornece as bases teóricas para manipulação de dados em bancos de dados
relacionais.

Outro tema abordado foi a linguagem SQL, que é uma ferramenta essencial para a
extração e manipulação de dados em bancos de dados relacionais. Foi dada ênfase
em recursos avançados do PostgreSQL, como herança de tabelas e a linguagem
PL/pgSQL, que permite a criação de funções armazenadas no banco de dados.
Além disso, o curso também apresentou técnicas de ETL (Extract, Transform, Load),
que são usadas para integrar dados de várias fontes em um único data warehouse.
Foram abordados tópicos relacionados à visualização de dados, estatística
descritiva, classificação e análise exploratória.

Aprendi que a análise de dados é uma atividade complexa e que exige uma
compreensão profunda de diferentes áreas, desde a matemática e estatística até a
engenharia de software e infraestrutura de sistemas. O curso proporcionou uma
visão ampla de todas as áreas envolvidas na análise de dados e como elas se
integram para extrair informações úteis dos dados.

Com relação aos exercícios práticos, consegui aplicar o conhecimento adquirido nas
aulas e senti que aprendi mais na prática do que apenas na teoria. Ainda assim, tive
dificuldades em alguns exercícios mais complexos e precisei pesquisar mais sobre o
assunto para conseguir resolvê-los. Além disso, percebi que preciso melhorar
minhas habilidades em estatística, principalmente na análise de dados descritivos e
exploratórios.

Em relação às dificuldades encontradas, o curso apresentou uma grande


quantidade de conteúdos em um curto período de tempo, o que tornou o ritmo das
aulas um pouco acelerado. Além disso, alguns tópicos foram apresentados de forma
superficial, o que tornou necessário buscar informações adicionais para entender
completamente o assunto.

No entanto, o curso foi bem organizado e os professores foram muito experientes e


habilidosos em apresentar o material de forma clara e concisa. As aulas práticas e
os exercícios também foram muito úteis para aplicar o que foi aprendido em
situações reais.

No geral, o curso de Análise de Dados e Big Data foi muito enriquecedor e


proporcionou uma visão abrangente de todas as áreas envolvidas na análise de
dados. As habilidades e conhecimentos adquiridos durante o curso são altamente
valorizados no mercado de trabalho e certamente serão úteis em minha carreira
como profissional de tecnologia da informação.
QUESTÃO SEÇÃO B

A arquitetura de um sistema analítico é composta por diversas camadas que visam


garantir a integridade, segurança e qualidade dos dados, além de proporcionar a
melhor experiência possível para os usuários finais. Essas camadas são: ingestão,
armazenamento, processamento, análise e visualização.

A camada de ingestão é responsável por receber os dados brutos de diversas


fontes e transformá-los em um formato estruturado que possa ser armazenado e
processado posteriormente. Nessa camada, são utilizadas ferramentas de ETL
(Extract, Transform and Load), que extraem, transformam e carregam os dados em
um local centralizado. Algumas ferramentas utilizadas nessa camada são o Apache
NiFi, o Talend Open Studio e o Pentaho Data Integration.

Na camada de armazenamento, os dados são armazenados em um sistema de


gerenciamento de bancos de dados, que pode ser relacional ou não relacional,
dependendo do tipo de dados que estão sendo armazenados e da finalidade do
sistema analítico. No caso de dados estruturados, o uso de bancos de dados
relacionais como o PostgreSQL e o MySQL é comum. Já para dados não
estruturados, bancos de dados NoSQL como o MongoDB e o Cassandra podem ser
utilizados.

A camada de processamento é responsável por processar os dados armazenados e


transformá-los em informações úteis para os usuários finais. Nessa camada, é
comum o uso de sistemas de processamento distribuído como o Apache Hadoop,
que é capaz de processar grandes quantidades de dados em paralelo. Outras
ferramentas utilizadas nessa camada são o Apache Spark e o Apache Flink, que
permitem o processamento em tempo real de grandes volumes de dados.

Na camada de análise, os dados são analisados e transformados em insights e


informações relevantes para os usuários finais. Nessa camada, são utilizadas
ferramentas de análise de dados, como o Python e suas bibliotecas para análise de
dados como o Pandas e o NumPy. Além disso, é comum o uso de ferramentas de
machine learning, como o scikit-learn, TensorFlow e PyTorch, que permitem a
análise preditiva dos dados.

Por fim, a camada de visualização é responsável por apresentar as informações


obtidas na camada de análise de forma clara e compreensível para os usuários
finais. Nessa camada, são utilizadas ferramentas de visualização de dados, como o
Tableau, o Power BI e o D3.js, que permitem a criação de gráficos, dashboards e
relatórios interativos.

Em resumo, a arquitetura de um sistema analítico é composta por diversas camadas


e ferramentas que visam garantir a integridade, segurança e qualidade dos dados,
além de permitir a análise e visualização dos mesmos para os usuários finais. Cada
camada é importante e depende da outra para que o sistema funcione de forma
eficiente e eficaz.

Você também pode gostar