Escolar Documentos
Profissional Documentos
Cultura Documentos
Conhecimentos e Comportamentos Digitais Estrategia
Conhecimentos e Comportamentos Digitais Estrategia
Autor:
Thiago Rodrigues Cavalcanti
08 de Março de2024
06598020662 Amanda
- Coelho Duarte
4 - METODOLOGIAS ÁGEIS, LEAN MANUFACTURING,
SCRUM
Sumário
Análise
Estatística .....................................................................................................................
......... 1
Métodos
ágeis .........................................................................................................................
....... 2
SCRUM ......................................................................................................................
.................... 5
Lean
Manufacturing ...........................................................................................................
........... 11
Características ou Princípios do
Lean .......................................................................................... 13
Aposta
estratégica ....................................................................................................................
....... 17
Questões
estratégicas ...................................................................................................................
... 19
Questionário de revisão e
aperfeiçoamento........................................................................................ 26
Perguntas ..................................................................................................................
.................. 26
Perguntas com
respostas ...............................................................................................................
28
Lista de Questões
Estratégicas .......................................................................................................... 30
Gabarito ....................................................................................................................
................... 34
ANÁLISE ESTATÍSTICA
Inicialmente, convém destacar os percentuais de incidência de todos os assuntos
previstos no nosso curso – quanto maior o percentual de cobrança de um dado
assunto, maior sua importância:
Grau de incidência em
concursos similares
Assunto
CESGRANRIO
6 - Ciência de dados. 8 - Pensamento computacional. 9 - Análise de
44,90%
Negócios.
3 - Design Thinking, Design de Serviço. 36,73%
4 - Metodologias ágeis, Lean Manufacturing, SCRUM. 18,37%
A ideia desta seção é apresentar um roteiro para que você realize uma revisão
completa do assunto e, ao mesmo tempo, destacar aspectos do conteúdo que
merecem atenção.
Para revisar e ficar bem preparado no assunto, você precisa, basicamente, seguir
os passos a seguir:
Métodos ágeis
Métodos ágeis são uma categoria de metodologias de desenvolvimento de software
que se baseiam em princípios de flexibilidade, colaboração, melhoria contínua e
entrega de valor ao cliente de forma rápida e eficiente.
Essa é bem simples, faça uma pergunta a seu cliente/usuário: você prefere um
documento de cinquenta páginas descrevendo o que você pretende criar ou o
próprio software funcionando? A escolha parece óbvia, Eu arriscaria que em 99 em
100 eles escolherão o software que está funcionando. Sendo assim, é melhor focar
em software funcionando de maneira rápida e frequente, dando aos usuários o que
eles preferem. A documentação tem seu lugar, é um guia valioso para a
compreensão das pessoas sobre como e por que um sistema é construído e como
trabalhar com o sistema. Entretanto, deve-se focar em produzir somente a
documentação necessária e suficiente para a realização do trabalho em si.
Somente seu cliente pode lhe dizer o que deseja. Sim, eles provavelmente não
possuam as habilidades necessárias para detalhar o sistema e muitas vezes
mudarão de ideia durante o caminho. “Ah, mas essa mudança não estava prevista
no contrato! Não foi esse o combinado! “O ponto importante aqui é que os projetos
de sucesso trabalham em estreita colaboração com seus clientes, investem o
esforço para descobrir o que seus clientes precisam. Entendi professor, então nem
precisa de contrato! Calma aí, não foi isso eu disse, os contratos são necessários
pois estabelecem a relação entre cliente e fornecedor, mas eles não devem ser
rígidos e rigorosos pois isso pode acabar prejudicando a sua relação com o cliente.
Respondendo a mudanças sobre seguir um plano
As pessoas mudam suas prioridades por vários motivos. À medida que o trabalho
progride no seu sistema, as partes interessadas no projeto entendem o domínio do
problema e o que você está criando. O ambiente de negócios muda. A tecnologia
muda com o tempo, mudança é uma realidade do desenvolvimento de software,
uma realidade que os processos precisam refletir. Mas e quanto ao plano traçado?
Não há nada de errado em ter um plano de projeto, na verdade, eu ficaria
preocupado com qualquer projeto que não tivesse um. No entanto, um plano de
projeto deve ser maleável, deve haver espaço para alterá-lo conforme sua situação
muda, caso contrário, seu plano rapidamente se torna irrelevante.
Em resumo, o manifesto ágil afirma que mesmo havendo valor nos itens à direita,
valorizam-se mais os itens à esquerda.
SCRUM
Primeiramente cabe dizer que o termo scrum surgiu do Rugby, trata-se de uma
jogada em que os jogadores combinam suas habilidades e técnicas e trabalham em
conjunto para atingir o objetivo de alcançar a bola.
● Leve
● Simples de entender
● Extremamente difícil de dominar
Percebam que se tratando de um framework ele agrupa métodos, processos e
técnicas e mais do que isso, pode haver uma combinação de outros frameworks ou
modelos.
Papéis
O framework Scrum possui poucos papéis porém são bem claros, abordarei esses
papéis utilizando a nomenclatura em inglês pois a banca poderá utilizar dessa
forma e vocês vão se familiarizando. Pois bem, temos o Scrum Team (ST) e esse é
composto por um Scrum Master (SM), o Product Owner (PO) e o Development
Team (DT).
A imagem acima vai ajudá-los a fixar esses papéis e em seguinda vamos ver as
suas atribuições e responsabilidades dentro do framework.
Não vamos confundir o Scrum team (Equipe Scrum) com o Development Team
(Time de desenvolvimento). O Scrum Team é auto-organizáveis e multifuncionais,
times auto-organizáveis decidem qual a melhor maneira ou modo para concluírem
seu trabalho, em vez de serem norteados por outros de fora do Time.
Scrum Master
Product Owner
Artefatos
O Scrum possui apenas três artefatos oficiais, são eles: Product Backlog, Sprint
Backlog e Product Increment), não se preocupe que iremos detalhar cada um
deles, então vamos começar.
Product backlog (Backlog do Produto)
Nada mais é que uma lista ordenada de tudo que deve ser necessário no produto,
e é uma origem única dos requisitos para qualquer mudança a ser feita no produto.
O Product Owner é responsável pelo Backlog do Produto, incluindo seu conteúdo,
disponibilidade e ordenação.
Sprint Backlog
Pessoal, não vamos confundir Product Backlog com Sprint Backlog, esse tema é
muito explorado pelas bancas e por isso vamos diferenciá-los.
Apenas para complementar, a definição de pronto deve ser algo pacificado para
todo o Time Scrum (Scrum Master, Product Owner e Development Team)
Agora que passamos pelos três artefatos oficiais do Scrum, vamos falar sobre os
eventos ou reuniões ou cerimônias, as bancas podem utilizar qualquer um desses
termos, fiquem ligados!
Eventos
São usados no Scrum para criar uma rotina e minimizar a necessidade de reuniões
não planejadas ou definidas no Scrum. Todos os eventos são eventos time-boxed,
de tal modo que todo evento tem uma duração máxima.
Sprint
Nessa reunião deve ser planejada tudo que vai compor a sprint, todo o time
scrum participa, pois é um trabalho colaborativo. Cabe destacar que a esse
evento possui um time-box de oito horas de duração para uma sprint de um mês de
duração. Caso a sprint seja menor esse evento também deve ser reduzido, cabe ao
Scrum master garantir que esse evento ocorra e o seu propósito, além de garantir
que o time scrum respeite o time-box.
Reunião diária
Revisão da Sprint
Esta é uma reunião time-boxed de 4 horas de duração para uma Sprint de um mês.
Para Sprints menores, este evento é usualmente menor. O Scrum Master garante
que o evento ocorra e que os participantes entendam o seu objetivo. O Scrum
Master ensina a todos a manter a reunião dentro dos limites do Time-box.
Retrospectiva da Sprint
Esse evento ocorre no último dia de cada sprint e sempre após a revisão da sprint e
participam o PO, o Scrum Master e o Time de desenvolvimento.
E com isso finalizamos o Scrum, vale lembrar que caso sintam a necessidade de
detalhar e aprofundar sobre o assunto, você deve consultar o material do curso
regular ou recomendo a leitura do próprio Scrum Guide que foi a referência para
esse tema.
Foco Principal
Origens e História
Âmbito de Aplicação
Métodos Ágeis: Os Métodos Ágeis são conhecidos por sua capacidade de lidar com
mudanças e incertezas de forma adaptativa e flexível, através de iterações curtas e
feedback constante.
Estrutura e Práticas
Métodos Ágeis: Os Métodos Ágeis têm uma estrutura mais definida, com práticas
como reuniões diárias (daily stand-ups), planejamento de sprint, revisões de sprint
e retrospectivas para promover a transparência, colaboração e entrega incremental.
Desperdício é tudo que consome recursos, mas não agrega valor ao cliente.
Compreender e identificar os sete tipos de desperdícios nos processos produtivos
(superprodução, tempo de espera, transporte, excesso de processamento,
inventário, movimentação e defeitos) é o primeiro passo para combatê-los e
eliminá-los, isso muitas vezes não é uma tarefa simples. A eliminação desses
desperdícios é alcançada por meio de práticas como o Kaizen (melhoria contínua),
produção puxada (fabricação somente quando há demanda), gestão visual (uso de
ferramentas visuais para monitorar processos) e padronização de processos
(estabelecimento de padrões de trabalho).
1. Superprodução
Produzir muito cedo demais (geralmente, isso ocorre devido ao trabalho com lotes
grandes, prazos de entrega longos, relações ruins com fornecedores etc.). A
superprodução leva a altos níveis de inventário que ocultam muitos dos problemas
da sua organização.
2. Espera
Com que frequência se gasta tempo esperando por uma resposta de outro
departamento em uma organização ou esperando uma entrega de um fornecedor
ou engenheiro para instalar uma máquina? Esses são exemplos de tempo de
espera para materiais, pessoas os equipamentos.
3. Transporte
4. Processamento
Muita capacidade em uma máquina ao invés de uma quantidade menor; onde se
usa técnicas inadequadas, equipamentos de tamanho grande, trabalhando com
tolerâncias que são muito restritas, executa-se processos que não são exigidos
pelo cliente e assim por diante. Todas essas atividades custam tempo e dinheiro.
5. Inventário
6. Movimentação
Uma das premissas fundamentais do Lean é focar nas atividades que agregam
valor direto ao cliente final, eliminando desperdícios e entregando produtos ou
serviços de alta qualidade que atendam às necessidades do cliente.
As atividades que agregam valor são aquelas que o cliente está disposto a pagar,
pois percebe que essas atividades contribuem diretamente para a qualidade do
produto ou serviço. Isso inclui, por exemplo, características específicas do produto,
desempenho superior, confiabilidade, durabilidade, facilidade de uso, entre outros.
Melhoria Contínua
Também conhecido como Kaizen, que significa "mudança para melhor" em japonês,
a Melhoria Contínua está centrada na ideia de que uma empresa deve buscar
constantemente melhorias em seus processos, produtos e serviços para aumentar
a eficiência, qualidade e competitividade.
Não é apenas uma atividade ocasional, mas sim uma cultura que deve ser cultivada
em toda a organização. Isso envolve incentivar todos os colaboradores,
independentemente do nível hierárquico, a identificar oportunidades de melhoria,
propor soluções e implementar mudanças de forma contínua e incremental.
Existem várias ferramentas e métodos que podem ser utilizados para facilitar a
Melhoria Contínua, como o PDCA (Plan-Do-Check-Act), DMAIC (Define, Measure,
Analyze, Improve, Control), 5W2H (What, Why, Where, When, Who, How, How
much), análise de causa raiz, brainstorming, entre outros. Essas ferramentas
ajudam a estruturar o processo de melhoria e garantir resultados eficazes.
Fluxo Contínuo
Produção Puxada
Um dos métodos mais comuns para implementar é o uso de sistemas Kanban, que
são sinais visuais que indicam a necessidade de produção ou reabastecimento de
materiais. Por exemplo, um cartão Kanban pode ser usado para autorizar a
produção de uma determinada quantidade de peças somente quando o estoque
atinge um nível mínimo pré-definido.
Gestão Visual
A Gestão Visual inclui o uso de indicadores de desempenho chave (KPIs) que são
exibidos de forma visual para acompanhar o progresso em relação aos objetivos e
metas estabelecidos. Esses indicadores podem incluir métricas de qualidade,
produtividade, tempo de ciclo, eficiência, satisfação do cliente, entre outros.
Além dos quadros, gráficos e indicadores, a Gestão Visual inclui o uso de sinais
visuais, como cores, símbolos, etiquetas e marcas, para transmitir informações
importantes, alertar sobre situações específicas e guiar o comportamento e as
ações dos colaboradores de forma intuitiva e eficaz.
Isso facilita a comunicação entre os membros da equipe, promovendo um
entendimento comum dos processos, objetivos e expectativas. Reduzindo erros,
retrabalho, mal-entendidos e tempo gasto na busca por informações.
APOSTA ESTRATÉGICA
A ideia desta seção é apresentar os pontos do conteúdo que mais possuem
chances de serem cobrados em prova, considerando o histórico de questões da
banca em provas de nível semelhante à nossa, bem como as inovações no
conteúdo, na legislação e nos entendimentos doutrinários e jurisprudenciais1.
1 Vale deixar claro que nem sempre será possível realizar uma aposta estratégica para
um determinado assunto, considerando que às vezes não é viável identificar os pontos
mais prováveis de serem cobrados a partir de critérios objetivos ou minimamente
razoáveis.
Imprima o capítulo Aposta Estratégica separadamente e dedique um tempo para
absolver tudo o que está destacado nessas duas páginas. Caso tenha alguma
dúvida, volte ao Roteiro de Revisão e Pontos do Assunto que Merecem Destaque.
Se ainda assim restar alguma dúvida, não hesite em me perguntar no fórum.
QUESTÕES ESTRATÉGICAS
Nesta seção, apresentamos e comentamos uma amostra de questões objetivas
selecionadas estrategicamente: são questões com nível de dificuldade semelhante
ao que você deve esperar para a sua prova e que, em conjunto, abordam os
principais pontos do assunto.
A ideia, aqui, não é que você fixe o conteúdo por meio de uma bateria extensa de
questões, mas que você faça uma boa revisão global do assunto a partir de,
relativamente, poucas questões.
1. CESGRANRIO - 2018 - Técnico Científico (BASA)/Tecnologia da
Informação
Comentários
Gabarito: alternativa C.
Comentários
Gabarito: alternativa A.
3. CESGRANRIO - 2018 - Técnico Científico (BASA)/Tecnologia da
Informação
Comentários ==b2556==
"As new work is required, the Development Team adds it to the Sprint Backlog. As
work is performed or completed, the estimated remaining work is updated. When
elements of the plan are deemed unnecessary, they are removed. Only the
Development Team can change its Sprint Backlog during a Sprint. The Sprint
Backlog is a highly visible, real-time picture of the work that the Development Team
plans to accomplish during the Sprint, and it belongs solely to the Development Team."
Gabarito: alternativa C.
"The Sprint Retrospective occurs after the Sprint Review and prior to the
next Sprint Planning. This is at most a three-hour meeting for one-month
Sprints. For shorter Sprints, the event is usually shorter. The Scrum Master ensures
that the event takes place and that attendants understand its purpose." Gabarito:
alternativa B.
Comentários
Gabarito: alternativa E.
6. CESGRANRIO - 2018 - Profissional Transpetro de Nível
Superior
(TRANSPETRO)/Análise de Sistemas/SAP - Finanças e Contabilidade
Comentários
• Empirismo
• Auto-organização
• Colaboração
• Priorização baseada em valor
• Time-boxing
• Iterativo-incremental
Gabarito: alternativa A.
Comentários
Gabarito: alternativa D.
Comentários
O Scrum tem como base o empirismo e o lean thinking, ou seja, tudo o que temos
no Scrum parte destas duas premissas. A primeira nos diz que o conhecimento vem
da experiência e da tomada de decisões naquilo que é observado. O segundo
preconiza que se deve reduzir o desperdício e se concentrar no que é essencial.
Partindo destas bases, chegamos aos pilares do Scrum, que são considerados
pilares empíricos: Transparência, Inspeção e Adaptação.
Gabarito: alternativa E.
Perguntas
1. O que são metodologias ágeis e por que são importantes no
desenvolvimento de software?
4. Quais são os papéis principais em uma equipe Scrum e quais são suas
responsabilidades?
4. Quais são os papéis principais em uma equipe Scrum e quais são suas
responsabilidades?
Os papéis principais em uma equipe Scrum são o Product Owner, responsável por
maximizar o valor do produto; o Scrum Master, responsável por garantir que a
equipe siga os princípios e práticas do Scrum; e a equipe de desenvolvimento,
responsável por criar incrementos de software utilizáveis a cada Sprint.
5. Quais são os artefatos-chave do Scrum e como eles são usados durante
o desenvolvimento de um produto?
Os artefatos-chave do Scrum são o Product Backlog, que lista todas as
funcionalidades desejadas para o produto; o Sprint Backlog, que contém as tarefas
a serem realizadas durante uma Sprint; e o Incremento, que é o produto
potencialmente entregável ao final de cada Sprint.
O Scrum lida com mudanças nos requisitos do cliente de forma flexível, permitindo
que o Product Owner ajuste o Product Backlog a qualquer momento para refletir as
novas prioridades e necessidades do cliente. Isso é feito durante o Sprint Planning
e pode envolver a adição, remoção ou modificação de itens do backlog.
1. alternativa C.
2. alternativa A.
3. alternativa C.
4. alternativa B.
5. alternativa E.
6. alternativa A.
7. alternativa D.
8. alternativa E.
...
(Bill Gates)
Thiago Cavalcanti
Face:
www.facebook.com/profthiagocavalcanti
Insta:
www.instagram.com/prof.thiago.cavalcanti
YouTube:
youtube.com/profthiagocavalcanti
Aula 02
Caixa Econômica Federal (CEF) Passo
Estratégico de Conhecimentos e
Comportamentos Digitais - 2024
(Pós-Edital)
Autor:
Thiago Rodrigues Cavalcanti
29 de Março de2024
Telegram: t.me/curso_facil
6 - CIÊNCIA DE DADOS. 8 - PENSAMENTO
COMPUTACIONAL. 9 - ANÁLISE DE NEGÓCIOS
Sumário
Análise
Estatística ....................................................................................................................
.......... 2
Ciência de
Dados .......................................................................................................................
..... 3
O que é Ciência de
Dados? ........................................................................................................... 3
Inteligência
Artificial ....................................................................................................................
... 4
Machine
Learning ...................................................................................................................
........ 5
Aprendizagem supervisionada/não
supervisionada ........................................................................ 8
Deep
Learning ...................................................................................................................
........... 27
Análise exploratória de
dados ........................................................................................................ 31
Técnicas de Ciência de
Dados ........................................................................................................ 41
Aposta
estratégica ...................................................................................................................
........ 42
Questões
estratégicas ..................................................................................................................
.... 44
Questionário de revisão e
aperfeiçoamento........................................................................................ 51
Perguntas .....................................................................................................................
............... 52
Perguntas com
respostas ............................................................................................................... 53
Lista de Questões
Estratégicas .......................................................................................................... 56
Gabarito ...................................................................................................................
.................... 60
ANÁLISE ESTATÍSTICA
Inicialmente, convém destacar os percentuais de incidência de todos os assuntos
previstos no nosso curso – quanto maior o percentual de cobrança de um dado
assunto, maior sua importância:
Grau de incidência em
concursos similares
Assunto
CESGRANRIO
6 - Ciência de dados. 8 - Pensamento computacional. 9 - Análise de
44,90%
Negócios.
3 - Design Thinking, Design de Serviço. 36,73%
4 - Metodologias ágeis, Lean Manufacturing, SCRUM. 18,37%
A ideia desta seção é apresentar um roteiro para que você realize uma revisão
completa do assunto e, ao mesmo tempo, destacar aspectos do conteúdo que
merecem atenção.
Para revisar e ficar bem preparado no assunto, você precisa, basicamente, seguir
os passos a seguir:
Ciência de Dados
1. Análise descritiva
A análise descritiva analisa os dados para obter insights sobre o que aconteceu ou
o que está acontecendo no ambiente de dados. Ela é caracterizada por
visualizações de dados, como gráficos de pizza, gráficos de barras, gráficos de
linhas, tabelas ou narrativas geradas. Por exemplo, um serviço de reserva de voos
pode registrar dados como o número de bilhetes reservados a cada dia. A análise
descritiva revelará picos de reservas, quedas nas reservas e meses de alta
performance para este serviço.
2. Análise diagnóstica
3. Análise preditiva
A análise preditiva usa dados históricos para fazer previsões precisas sobre
padrões de dados que podem ocorrer no futuro. Ela é caracterizada por técnicas
como machine learning, previsão, correspondência de padrões e modelagem
preditiva. Em cada uma dessas técnicas, os computadores são treinados para
fazer engenharia reversa de conexões de causalidade nos dados. Por exemplo, a
equipe de serviço de voo pode usar a ciência de dados para prever padrões de
reserva de voo para o próximo ano no início de cada ano. O programa de
computador ou algoritmo pode analisar dados anteriores e prever picos de
reservas para determinados destinos em maio. Tendo previsto as futuras
necessidades de viagem de seus clientes, a empresa poderia iniciar a publicidade
direcionada para essas cidades a partir de fevereiro.
4. Análise prescritiva
A análise prescritiva leva os dados preditivos a um novo patamar. Ela não só prevê
o que provavelmente acontecerá, mas também sugere uma resposta ideal para
esse resultado. Ela pode analisar as potenciais implicações de diferentes escolhas
e recomendar o melhor plano de ação. A análise prescritiva usa análise de
gráficos, simulação, processamento de eventos complexos, redes neurais e
mecanismos de recomendação de machine learning.
Voltando ao exemplo de reserva de voo, a análise prescritiva pode analisar
campanhas de marketing históricas para maximizar a vantagem do próximo pico
de reservas. Um cientista de dados pode projetar resultados de reservas para
diferentes níveis de gastos de marketing em vários canais de marketing. Essas
previsões de dados dariam à empresa de reservas de voos mais confiança para
tomar suas decisões de marketing.
Inteligência Artificial
A inteligência artificial nasceu na década de 1950, quando um punhado de
pioneiros do campo nascente da ciência da computação começaram a perguntar
se os computadores poderiam ser feitos para "pensar" — uma questão cujas
ramificações ainda estamos explorando hoje. Embora muitas das ideias
subjacentes haviam se formado nos anos e até décadas anteriores, a "inteligência
artificial" finalmente cristalizou-se como um campo de pesquisa em 1956, quando
John McCarthy, então um jovem professor assistente de matemática no Dartmouth
College, organizou um workshop de verão sob a seguinte proposta:
"O estudo deve prosseguir com base na conjectura de que todos os aspectos da
aprendizagem ou qualquer outra característica da inteligência podem, em
princípio, ser tão precisamente descritos que uma máquina pode ser feita para
simulá-la. Uma tentativa será feita para descobrir como fazer as máquinas usarem
a linguagem, formar abstrações e conceitos, resolver tipos de problemas agora
reservados aos seres humanos e melhorar a si mesmos. Achamos que um avanço
significativo pode ser feito em um ou mais desses problemas se um grupo
cuidadosamente selecionado de cientistas trabalhar nele juntos por um verão."
No final do verão, a oficina terminou sem ter resolvido totalmente o enigma que se
propus a investigar. No entanto, contou com a presença de muitas pessoas que se
tornariam pioneiras no campo, e desencadeou uma revolução intelectual que ainda
está em curso até hoje.
Machine Learning
O que é aprender, afinal? O que é aprendizado de máquina? Estas são questões
filosóficas e não nos interessamos muito por filosofia nessa aula; nossa ênfase
está focada na sua prova de concurso. No entanto, vale a pena passar alguns
instantes tratando sobre questões fundamentais, apenas para ver o quão
complicado elas são, antes de arregaçar as mangas e olhar para a aprendizagem
de máquina na prática. Nosso dicionário define “aprender” como:
• 1. Ficar sabendo, reter na memória, tomar conhecimento de,
• 2. Adquirir habilidade prática (em),
Esses critérios não são exclusivos; você pode combiná-los da maneira que quiser.
Por exemplo, um filtro de spam de última geração pode aprender em tempo real
usando um modelo de rede neural profunda treinado usando exemplos de spam e
não spam; isso o torna um sistema de aprendizagem on-line, baseado em modelos
e supervisionado. Vamos olhar cada um desses critérios um pouco mais de perto.
Aprendizagem supervisionada/não supervisionada
Os sistemas de Machine Learning podem ser classificados de acordo com a
quantidade e o tipo de supervisão que recebem durante o treinamento. São quatro
categorias principais: aprendizagem supervisionada, aprendizagem não
supervisionada, aprendizagem semisupervisionada e Aprendizado de Reforço.
Aprendizagem supervisionada
Observe que alguns algoritmos de regressão também podem ser usados para
classificação, e viceversa. Por exemplo, a Regressão Logística é comumente
utilizada para classificação, pois pode produzir um valor que corresponde à
probabilidade de pertencer a uma determinada classe (por exemplo, 20% de
chance de ser spam).
Uma das vantagens das SVMs é a capacidade de usar o "kernel trick", que permite
mapear os dados para um espaço de características de maior dimensão sem
realmente calcular todas as transformações. Isso é útil quando os dados não são
linearmente separáveis no espaço original, pois pode-se encontrar um hiperplano de
separação em um espaço de características de maior dimensão.
Kernel Linear vs. Kernel Não-linear: Um kernel linear é utilizado quando os dados
são linearmente separáveis, enquanto kernels não-lineares (como o kernel
polinomial, o kernel RBF - Radial Basis Function, entre outros) são utilizados
quando os dados não podem ser separados por um hiperplano linear no espaço
original.
• Clustering
o K-Means
o DBSCAN
o Análise hierárquica de cluster (HCA)
• Detecção de anomalias e
detecção de novidades o SVM de
uma classe o Floresta de
Isolamento
• Visualização e redução de
dimensionalidade o Análise
de componentes principais
(PCA) o Kernel PCA
o Incorporação linear local (LLE)
o t-Distributed Stochastic Neighbor Embedding (t-SNE)
• Aprendizagem de regras da
associação o Apriori o Eclat o Por
amostragem
o Árvore de Padrão-Frequente
Por exemplo, digamos que você tenha um monte de dados sobre os visitantes do
seu blog. Você pode querer executar um algoritmo de clustering para tentar
detectar grupos de visitantes semelhantes. Em nenhum momento você diz ao
algoritmo a qual grupo um visitante pertence: ele encontra essas conexões sem a
sua ajuda. Por exemplo, pode notar que 40% dos seus visitantes são homens que
amam histórias em quadrinhos e geralmente leem seu blog à noite, enquanto 20%
são jovens amantes de ficção científica que visitam durante os fins de semana. Se
você usar um algoritmo hierárquico de clustering, ele também pode subdividir cada
grupo em grupos menores.
Isso pode ajudá-lo a direcionar seus posts para cada grupo.
Figura 3 - Clustering
Aprendizado semisupervisionado
Uma vez que rotular dados geralmente é demorado e caro, muitas vezes você terá
muitas instâncias não rotuladas, e poucas instâncias rotuladas. Alguns algoritmos
podem lidar com dados que são parcialmente rotulados. Isso é chamado de
aprendizagem semisupervisionados.
Aprendizado de reforço
1. Observa
2. Seleciona a
ação baseada
na política
3. Age!
4. Recebe uma
recompensa ou
penalidade
5. Atualiza a
política
6. Segue o fluxo
até que um
política ótima
Aprendizado por Reforço seja
encontrada
Não
Supervisionado Por Reforço
supervisionado
Dados rotulados Sem rótulos Processo de decisão
Sistema de
Feedback direto Sem feedback
recompensas
Ao criar um modelo de regressão, você cria um modelo que prevê uma variável
numérica contínua. Ao separar seu conjunto de dados de avaliação (teste), você
tem algo que pode usar para comparar a qualidade do seu modelo.
O que você precisa fazer para avaliar a qualidade do seu modelo é comparar a
qualidade da sua previsão com o que é chamado de verdade fundamental, que é o
valor real observado que você está tentando prever. Dê uma olhada na tabela
abaixo, na qual a primeira coluna contém a verdade fundamental (chamada de
actuals) e a segunda coluna contém os valores previstos:
A linha 1 compara o valor real de 4,194 com o que o modelo previu, que é
4,364320.
Você deve fazer essa comparação calculando a perda (loss). A perda é a diferença
entre os valores reais e previstos da tabela anterior. Na mineração de dados, é
chamada de medida de distância. Existem várias abordagens para calcular
medidas de distância que dão origem a diferentes funções de perda. Duas delas
são:
• Distância de manhattan
• Distância euclidiana
Existem várias funções de perda para regressão, veremos duas das funções de
perda comumente usadas para regressão, que são:
Seu objetivo é treinar modelos sucessivos com objetivo de obter a pontuação mais
alta de R2. Os valores de R2 variam entre 0 e 1. Seu objetivo é tentar fazer com
que o modelo tenha uma pontuação próxima a 1.
O erro médio absoluto (EMA) é uma métrica de avaliação para modelos de
regressão que mede a distância absoluta entre suas previsões e a verdade
fundamental. A distância absoluta é a distância independentemente do sinal, seja
positivo ou negativo. Por exemplo, se a valor real for 6 e você predizer 5, a
distância será 1. No entanto, se você predisser 7, a distância será -1. A distância
absoluta, sem levar em consideração os sinais, é 1 em ambos os casos. Isso é
chamado de magnitude. O EMA é calculado somando todas as magnitudes e
dividindo pelo número de observações.
Como você já deve ter aprendido, avaliamos um modelo com base em seu
desempenho em um conjunto de teste. Um conjunto de teste terá seus rótulos, que
chamamos de verdade fundamental, e, usando o modelo, também geramos
previsões para o conjunto de teste. A avaliação do desempenho do modelo
envolve a comparação da verdade fundamental com as previsões. Vamos ver isso
em ação com um conjunto de teste fictício:
Como você pode ver na tabela, existem cinco exemplos cujos rótulos (verdade
fundamental) são Sim e o dois exemplos que têm os rótulos Não.
Acurácia
Precisão (Precision)
Especificidade
F1- Score
A curva ROC (Receiver Operating Characteristic Curve) é a curva gerada pela taxa
de verdadeiros positivos (sensibilidade) e pela taxa de falsos positivos (1 –
especificidade) para diferentes pontos de cortes (c). A curva ROC oferece uma
visão geral de um classificador e pode ser utilizada para encontrar pontos de corte
ideias. O corte que deixa a curva mais próxima do vértice (0, 1) maximiza a
sensibilidade conjuntamente com a especificidade.
Uma medida decorrente da curva ROC é o AUC (Area Under the Curve), que nada
mais é que a área abaixo da curva. O AUC varia entre 0 e 1 e quanto maior o AUC
melhor o modelo.
Representa a capacidade
do modelo prever a classe
Representa a capacidade
do modelo prever a classe negativa corretamente.
positiva corretamente.
(1 – Especificidade)
Representa a capacidade
do modelo prever a classe
negativa incorretamente.
Quanto MAIOR
esse valor:
MELHOR!!
Quanto MENOR
esse valor:
MELHOR!!
O conjunto de treinamento
O conjunto de validação
O conjunto de teste
Como você pode imaginar, underfitting é o oposto de overfitting: ele ocorre quando
seu modelo é muito simples para aprender a estrutura subjacente dos dados. Por
exemplo, um modelo linear de satisfação com a vida tende a ser insuficiente; a
realidade é mais complexa do que o modelo, portanto, suas previsões tendem a
ser imprecisas, mesmo nos exemplos de treinamento. Aqui estão as principais
opções para corrigir esse problema:
• Selecione um modelo mais poderoso, com mais parâmetros.
• Alimente melhores recursos para o algoritmo de aprendizagem (engenharia
de recursos).
• Reduza as restrições no modelo (por exemplo, reduza o hiperparâmetro de
regularização).
Em algum lugar entre overfitting e underfitting existe um ponto ideal onde temos a
capacidade ideal de previsão; ou seja, os hiperparâmetros do modelo que são
perfeitamente adequados para a tarefa e os dados - é isso que estamos buscando.
O objetivo da regularização é evitar que nosso modelo se ajuste demais aos dados
de treinamento. Agora que sabemos o propósito da regularização, vamos explorar
algumas das muitas maneiras de regularizar nossas redes neurais.
L2 regularization
L1 regularization
O que isso faz é somar os valores absolutos dos parâmetros. O efeito que isso tem
é que introduz esparsidade (sparsity) em nosso modelo zerando alguns dos
valores, nos dizendo que eles não são muito importantes. Isso pode ser pensado
como uma forma de seleção de recursos.
Como você pode ver no diagrama anterior, os contornos da função objetivo agora
se encontram nos eixos em vez de em um ponto distante dele que é de onde vem
a esparsidade neste método.
Parada antecipada
Durante o treinamento, sabemos que nossas redes neurais (que têm capacidade
suficiente para aprender os dados de treinamento) tendem a se ajustar demais aos
dados de treinamento em muitas iterações e, portanto, são incapazes de
generalizar o que aprenderam para ter um bom desempenho no conjunto de teste.
Uma maneira de superar esse problema é plotar o erro nos conjuntos de
treinamento e teste em cada iteração e avaliar analiticamente a iteração em que o
erro dos conjuntos de treinamento e teste é o mais próximo. Em seguida,
escolhemos esses parâmetros para o nosso modelo.
Outra vantagem deste método é que em nada altera a função objetivo, o que
facilita o uso e não interfere na dinâmica de aprendizado da rede, que é mostrada
no diagrama a seguir:
Dropout
Este método foi proposto como uma alternativa para evitar overfitting e permitir
redes maiores explorarem mais regiões do espaço amostral. A ideia é bastante
simples - durante cada etapa de treinamento, dada uma porcentagem predefinida
nd, uma camada de dropout seleciona aleatoriamente n d*N unidades de entrada e
as define para zero (a operação só está ativa durante a fase de treinamento,
enquanto é completamente removida quando o modelo é empregado para novas
previsões).
Esta operação pode ser interpretada de várias maneiras. Quanto mais camadas de
dropout são empregadas, o resultado de sua seleção é uma sub-rede com
capacidade reduzida que pode evitar o sobreajuste no conjunto de treinamento. A
sobreposição de muitas sub-redes treinadas (cada uma com uma eliminação
diferente de nós) compõe um conjunto implícito cuja previsão é uma média sobre
todos os modelos. Se o dropout for aplicado em camadas de entrada, ele adiciona
um ruído aleatório às amostras. Ao mesmo tempo, o emprego de várias camadas
de dropout permite explorar várias configurações potenciais que são
continuamente combinadas e refinadas.
Figura 10 - (a) Rede Neural completa. (b) Rede Neural após o DROPOUT
Deep Learning
O deep learning é um subcampo específico do aprendizado de máquina: uma
nova visão sobre as representações de aprendizagem a partir de dados que
coloca ênfase no aprendizado de camadas sucessivas de representações
cada vez mais significativas. O "profundo" em "aprendizagem profunda" não é
uma referência a qualquer tipo de compreensão mais profunda alcançada pela
abordagem; em vez disso, representa essa ideia de sucessivas camadas de
representações. Quantas camadas contribuem para um modelo de dados é
chamado de profundidade do modelo. Outros nomes apropriados para o campo
poderiam ter sido representações de aprendizado em camadas ou aprendendo
representações hierárquicas.
Como você pode ver na figura abaixo, a rede transforma a imagem digital em
representações cada vez mais diferentes da imagem original e cada vez mais
informativas sobre o resultado. Você pode pensar em uma rede profunda como um
processo de destilação de informações, onde a informação passa por filtros
sucessivos e sai cada vez mais purificada (ou seja, útil no que diz respeito a
alguma tarefa).
Então é isso que é o aprendizado profundo, tecnicamente: uma maneira de
aprender representações de dados. É uma ideia simples — mas, como se vê,
mecanismos muito simples, suficientemente dimensionados, podem acabar
parecendo magia.
M:Modelar dados
Os algoritmos de software e machine learning são usados para obter insights mais
profundos, prever resultados e prescrever o melhor plano de ação. Técnicas de
machine learning, como associação, classificação e clustering, são aplicadas ao
conjunto de dados de treinamento. O modelo pode ser testado em relação a dados
de teste predeterminados para avaliar a precisão dos resultados. O modelo de
dados pode ser ajustado várias vezes para melhorar os resultados.
N: Interpretar resultados
Faz parte também da AED sintetizar dados através das chamadas medidas
estatísticas. Elas podem ser classificadas em quatro grupos:
medidas de assimetria e
• realizar um exame gráfico da natureza das variáveis individuais a analisar e uma análise
descritiva que permita quantificar alguns aspectos gráficos dos dados;
• realizar um exame gráfico das relações entre as variáveis analisadas e uma análise
descritiva que quantifique o grau de inter-relação entre elas;
População e Amostra
Moda
A moda é o valor mais comumente relatado para uma variável particular. Pode ser
ilustrado usando a seguinte variável cujos valores são:
3, 4, 5, 6, 7, 7, 7, 8, 8, 9
A moda seria o valor 7, uma vez que existem três ocorrências de 7 (mais do que
qualquer outro valor). Ela fornece a única medida de tendência central para
variáveis medidas em uma escala nominal. A moda também pode ser calculada
para variáveis medidas nas escalas ordinal, intervalo e proporção. Mediana
A mediana é o valor médio de uma variável uma vez que foi ordenada do menor
para o maior. Para variáveis com um número par de valores, a média dos dois
valores mais próximos do meio é selecionada (ou seja, temos que somar os dois
valores e dividir por 2). O seguinte conjunto de valores será usado para ilustrar:
Conjunto: 3, 4, 7, 2, 3, 7, 4, 2, 4, 7, 4
Ordenando: 2, 2, 3, 3, 4, 4, 4, 4, 7, 7, 7
Mediana: 4
Média
3, 4, 5, 7, 7, 8, 9, 9, 9
Variância
Observem que a variância não está na mesma unidade que as nossas variáveis,
pois os desvios são elevados ao quadrado. Para conservarmos as unidades do
desvio e dos dados, calculamos o desvio-padrão, o qual nada mais é do que
extrair a raiz quadrada da variância.
Escalas de mensuração
O tipo da análise que pode ser realizado depende da escala de medida da variável
analisada. Na tabela a seguir se sugerem as representações gráficas e resumos
descritivos numéricos mais recomendáveis para realizar essa análise.
Vamos tentar detalhar um pouco mais termos vistos acima. A teoria de escalas de
medida ou de mensuração é interessante e já foi abordada por diversas bancas.
Assim, não custa nada reforçar os conceitos vistos acima. São consideradas
variáveis de nível de mensuração:
Qualitativa x quantitativa
O nome das variáveis não pode conter acentuação (por exemplo, “cesárea”), ser
formado por mais de uma palavra (por exemplo “local do parto”), nem começar
com número. Por isso, uma documentação conhecida como “Dicionário” deve ser
criada. Um exemplo de um dicionário de dados pode ser visto na figura a seguir:
Se uma determinada variável permitir múltiplas respostas, então ela deverá ser
desmembrada em mais de uma variável, abrangendo as possíveis respostas para
amostra estudada. A figura abaixo mostra uma tabela com dados corretos que
permitem uma análise estatística consistente. Perceba que todos os campos são
numérico e possuem apenas um valor para cada registro (são atômicos).
Técnicas de Ciência de Dados
As principais técnicas usadas pelos cientistas de dados são:
Classificação
Regressão
Clustering
APOSTA ESTRATÉGICA
A ideia desta seção é apresentar os pontos do conteúdo que mais possuem
chances de serem cobrados em prova, considerando o histórico de questões da
banca em provas de nível semelhante à nossa, bem como as inovações no
conteúdo, na legislação e nos entendimentos doutrinários e jurisprudenciais1.
1 Vale deixar claro que nem sempre será possível realizar uma aposta estratégica para
um determinado assunto, considerando que às vezes não é viável identificar os pontos
mais prováveis de serem cobrados a partir de critérios objetivos ou minimamente
Tipos de algoritmos de aprendizagem de máquina
Y = f (X)
Isso nos permite gerar saídas com precisão quando dadas novas
entradas.
1. Análise descritiva
A análise descritiva analisa os dados para obter insights sobre o que aconteceu ou
o que está acontecendo no ambiente de dados. Ela é caracterizada por
visualizações de dados, como gráficos de pizza, gráficos de barras, gráficos de
linhas, tabelas ou narrativas geradas. Por exemplo, um serviço de reserva de voos
pode registrar dados como o número de bilhetes reservados a cada dia. A análise
descritiva revelará picos de reservas, quedas nas reservas e meses de alta
performance para este serviço.
razoáveis.
2. Análise diagnóstica
3. Análise preditiva
A análise preditiva usa dados históricos para fazer previsões precisas sobre
padrões de dados que podem ocorrer no futuro. Ela é caracterizada por técnicas
como machine learning, previsão, correspondência de padrões e modelagem
preditiva. Em cada uma dessas técnicas, os computadores são treinados para
fazer engenharia reversa de conexões de causalidade nos dados. Por exemplo, a
equipe de serviço de voo pode usar a ciência de dados para prever padrões de
reserva de voo para o próximo ano no início de cada ano. O programa de
computador ou algoritmo pode analisar dados anteriores e prever picos de
reservas para determinados destinos em maio. Tendo previsto as futuras
necessidades de viagem de seus clientes, a empresa poderia iniciar a publicidade
direcionada para essas cidades a partir de fevereiro.
4. Análise prescritiva
A análise prescritiva leva os dados preditivos a um novo patamar. Ela não só prevê
o que provavelmente acontecerá, mas também sugere uma resposta ideal para
esse resultado. Ela pode analisar as potenciais implicações de diferentes escolhas
e recomendar o melhor plano de ação. A análise prescritiva usa análise de
gráficos, simulação, processamento de eventos complexos, redes neurais e
mecanismos de recomendação de machine learning.
---------------------------------------------------------------------------------------------------------------
--------------------
Classificação
Clustering
QUESTÕES ESTRATÉGICAS
Nesta seção, apresentamos e comentamos uma amostra de questões objetivas
selecionadas estrategicamente: são questões com nível de dificuldade semelhante
ao que você deve esperar para a sua prova e que, em conjunto, abordam os
principais pontos do assunto.
A ideia, aqui, não é que você fixe o conteúdo por meio de uma bateria extensa de
questões, mas que você faça uma boa revisão global do assunto a partir de,
relativamente, poucas questões.
Comentários
Gabarito: alternativa E.
Comentários
Portanto, ela é a abordagem mais apropriada para tratar os dados ausentes sobre
o peso dos participantes, visando manter a precisão e a confiabilidade do estudo.
Gabarito: alternativa A.
Comentários
D) CERTA. Esta é uma prática comum, pois outliers podem distorcer agregações.
E) ERRADA. Tratar outliers antes de agregar é mais comum para evitar distorções
nos resultados da agregação.
Gabarito: alternativa D.
Comentários
Gabarito: alternativa B.
Gabarito: alternativa B.
Comentários
Falsos Negativos=15360+1501=16861
falsos negativos:
Falsos Negativos=14169+1501−15360
Falsos Negativos=1779
Gabarito: alternativa B.
Comentários
Esses tokens podem ser palavras individuais, partes de palavras (como sufixos ou
prefixos), números, pontuações ou qualquer outra unidade que faça sentido na
análise do texto. A tokenização é uma etapa fundamental no pré-processamento
de texto, pois permite que os algoritmos de processamento de linguagem natural
trabalhem com unidades significativas e facilitem a análise do texto de forma mais
granular.
Por exemplo, ao tokenizar a frase "O cachorro correu para o parque", o texto seria
dividido em tokens como "O", "cachorro", "correu", "para", "o" (artigo), "parque".
Cada token representa uma unidade semântica que pode ser usada para análise,
tradução, classificação de texto, entre outras tarefas.
Gabarito: alternativa C.
Comentários
Um kernel linear é uma função de kernel que transforma os dados para um espaço
de características linearmente separável. Isso simplifica o modelo e reduz a
complexidade, o que pode ajudar a evitar o overfitting, pois modelos mais
complexos têm maior probabilidade de se ajustar demais aos dados de
treinamento. Além disso, um kernel linear é menos propenso a capturar ruído nos
dados, focando mais nos padrões essenciais para a classificação.
Gabarito: alternativa E.
Perguntas
1) Como você definiria machine learning?
2) Você pode citar quatro tipos de problemas onde podemos usar ML?
6) Que tipo de algoritmo de Machine Learning você usaria para permitir que
um robô andasse em vários terrenos desconhecidos?
7) Que tipo de algoritmo você usaria para segmentar seus clientes em vários
grupos?
14) Você pode citar quatro dos principais desafios do Machine Learning?
15) Se o seu modelo se sai bem nos dados de treinamento, mas se generaliza
mal para novas instâncias, o que está acontecendo? Você pode nomear
três soluções possíveis?
2) Você pode citar quatro tipos de problemas onde podemos usar ML?
O Machine Learning é ótimo para problemas complexos para os quais não
temos solução algorítmica, para substituir longas listas de regras afinadas à
mão, para construir sistemas que se adaptem a ambientes flutuantes e,
finalmente, para ajudar os humanos a aprender (por exemplo, a mineração de
dados).
6) Que tipo de algoritmo de Machine Learning você usaria para permitir que
um robô andasse em vários terrenos desconhecidos?
O Aprendizado de Reforço provavelmente será melhor se quisermos que um
robô aprenda a andar em vários terrenos desconhecidos, já que este é
tipicamente o tipo de problema que o Aprendizado de Reforço enfrenta. Pode
ser possível expressar o problema como um problema de aprendizagem
supervisionado ou semi-supervisionado, mas seria menos natural.
7) Que tipo de algoritmo você usaria para segmentar seus clientes em vários
grupos?
Se você não sabe como definir os grupos, então você pode usar um algoritmo
de clustering (aprendizado não supervisionado) para segmentar seus clientes
em clusters de clientes semelhantes. No entanto, se você sabe quais grupos
você gostaria de ter, então você pode alimentar muitos exemplos de cada
grupo para um algoritmo de classificação (aprendizado supervisionado), e
classificará todos os seus clientes nesses grupos.
15)Se o seu modelo se sai bem nos dados de treinamento, mas se generaliza
mal para novas instâncias, o que está acontecendo? Você pode nomear
três soluções possíveis?
Se um modelo se sai bem nos dados de treinamento, mas se generaliza mal
para novas instâncias, o modelo provavelmente está sobreajustado
(overfitting) os dados de treinamento. Possíveis soluções para o sobreajuste
são obter mais dados, simplificar o modelo (selecionar um algoritmo mais
simples, reduzir o número de parâmetros ou recursos utilizados ou regularizar
o modelo) ou reduzir o ruído nos dados de treinamento.
Gabarito
1. alternativa E.
2. alternativa A.
3. alternativa D.
4. alternativa B.
5. alternativa B.
6. alternativa B.
7. alternativa C.
8. alternativa E.
...
Thiago Cavalcanti
Face:
www.facebook.com/profthiagocavalcanti
Insta:
www.instagram.com/prof.thiago.cavalcant
i YouTube:
youtube.com/profthiagocavalcanti
Aula 03
Caixa Econômica Federal (CEF) Passo
Estratégico de Conhecimentos e
Comportamentos Digitais - 2024
(Pós-Edital)
Autor:
Thiago Rodrigues Cavalcanti
05 de Abril de2024
Telegram: t.me/curso_facil
Simulado.......................................................................................................................... 2
Questões Comentadas...................................................................................................... 7
SIMULADO
Vamos começar nosso único simulado. Os simulados do curso do
Passo Estratégico são direcionados pela análise dos últimos
concursos aplicados e servem de treinamento para o concurso da
CAIXA. Esse simulado terá como base o assunto de todas as
aulas.
Nosso objetivo é ajudar a você na fixação do assunto. Espero que goste! Qualquer dúvida estou às
ordens! Forte abraço!
1.
O manifesto ágil enfatiza a importância de:
A) Processos e ferramentas
B) Documentação extensiva
C) Negociação de contratos detalhados
D) Seguir um plano rígido
E) Colaboração com o cliente
2.
Em metodologias ágeis, os sprints são:
A) Fases longas de desenvolvimento
B) Reuniões diárias de equipe
C) Ciclos de trabalho curtos e fixos
D) Documentos de planejamento
E) Avaliações de desempenho
3.
A principal função do Product Owner em metodologias ágeis é:
A) Codificar funcionalidades
B) Priorizar o backlog do produto
C) Gerenciar a equipe de desenvolvimento
D) Realizar testes de qualidade
E) Gerar relatórios de progresso
4.
A retrospectiva é uma prática comum em metodologias ágeis, onde:
A) A equipe revisa o código fonte do projeto
B) O cliente fornece feedback final sobre o produto
C) O progresso do projeto é apresentado aos stakeholders
D) A equipe reflete sobre o processo e identifica melhorias E) São realizadas atividades de
treinamento
5.
Sobre os conceitos básicos de Aprendizado de máquina assinale a alternativa correta.
a) Teoricamente, aumentar o tamanho do conjunto de treinamento para atingir uma
densidade suficiente de instâncias de treinamento não é uma solução para a maldição da
dimensionalidade.
b) No aprendizado baseado em modelo, o sistema aprende os exemplos e, em
seguida, generaliza para novos casos usando uma medida de similaridade para compará-
los com os exemplos aprendidos.
c) Algoritmos de aprendizado de máquina diferentes possuem desempenho diferente
mesmo que recebam uma quantidade gigantesca (suficiente) de dados.
d) A seleção de recursos envolve a escolha dos recursos mais úteis para treinar o
modelo entre os recursos existentes.
e) Quando falamos de overfitting de um modelo de aprendizado, significa que o
modelo tem um bom desempenho nos dados de treinamento e generaliza bem.
6.
Qual das alternativas abaixo não apresenta um tipo de algoritmo de cluterização. a)
Centroid-based Clustering.
b) Density-based Clustering.
c) Distribution-based Clustering.
d) Hierarchical Clustering.
e) Sklearn Clustering
7.
Um dos tópicos mais relevantes para aprendizado de máquina está associado aos parâmetros
e hiperparâmetros dos modelos de dados. Quando dividido de acordo com essa
nomenclatura parâmetro está associada aos elementos do modelo que são ajustados durante
o treinamento. Já os hiperparâmetros são definidos antes do treinamento e podem melhorar
a qualidade do resultado obtido. Dentro deste contexto, assinale a alternativa correta:
==b2556==
8.
Qual é a importância da prototipagem no Design Thinking?
A) Testar ideias de forma rápida e econômica
B) Implementar soluções finais
C) Coletar feedback dos usuários
D) Iterar e melhorar soluções
E) Todas as alternativas anteriores estão corretas
9.
Por que a empatia é fundamental no Design Thinking?
A) Para entender as necessidades dos concorrentes
B) Para criar soluções complexas
C) Para compreender profundamente os usuários
D) Para definir objetivos financeiros
E) Para identificar tecnologias emergentes
10.
Qual é o objetivo principal do Design de Serviço em Tecnologia da Informação (TI)? A)
Criar produtos físicos de alta qualidade.
B) Desenvolver interfaces de usuário complexas.
C) Atender às necessidades dos usuários e das organizações.
D) Minimizar o uso de tecnologias avançadas.
E) Fornecer suporte técnico exclusivo.
11.
Qual etapa do processo de Design de Serviço em TI envolve a criação de protótipos e iteração
com base no feedback dos usuários? A) Entendimento do Usuário.
B) Design Centrado no Usuário.
C) Integração de Tecnologia.
D) Gestão de Processos.
E) Prototipagem e Iteração.
12.
Qual princípio do Design de Serviço em TI envolve a escolha e integração de tecnologias
adequadas para suportar os serviços? A) Design Centrado no Usuário.
B) Prototipagem e Iteração.
C) Integração de Tecnologia.
D) Entendimento do Usuário.
E) Gestão de Processos.
QUESTÕES COMENTADAS
1.
O manifesto ágil enfatiza a importância de:
A) Processos e ferramentas
B) Documentação extensiva
C) Negociação de contratos detalhados
D) Seguir um plano rígido
E) Colaboração com o cliente
Comentários
O Manifesto Ágil é uma declaração que valoriza a colaboração direta com o cliente ao longo do
processo de desenvolvimento de software. Isso significa que a interação contínua e eficaz com o
cliente é mais relevante do que seguir um plano rígido ou focar apenas em processos e
ferramentas. Essa abordagem destaca a necessidade de adaptabilidade e resposta ágil às
necessidades do cliente durante o desenvolvimento do produto.
Gabarito: alternativa E.
2.
Em metodologias ágeis, os sprints são:
A) Fases longas de desenvolvimento
B) Reuniões diárias de equipe
C) Ciclos de trabalho curtos e fixos
D) Documentos de planejamento
E) Avaliações de desempenho
Comentários
Os sprints em metodologias ágeis são períodos de tempo definidos, geralmente curtos (como duas
semanas a um mês), nos quais as equipes de desenvolvimento trabalham em conjunto para criar
incrementos do produto. Durante um sprint, são realizadas atividades como planejamento,
desenvolvimento, testes e revisão, com o objetivo de entregar um incremento funcional ao final de
cada ciclo.
Gabarito: alternativa C.
3.
A principal função do Product Owner em metodologias ágeis é:
A) Codificar funcionalidades
B) Priorizar o backlog do produto
C) Gerenciar a equipe de desenvolvimento
D) Realizar testes de qualidade
E) Gerar relatórios de progresso
Comentários
A principal função do Product Owner em metodologias ágeis é priorizar o backlog do produto
(alternativa B). Isso envolve identificar as necessidades dos stakeholders, definir as funcionalidades
a serem desenvolvidas e garantir que o time esteja focado em criar valor para o produto de acordo
com as expectativas e prioridades do cliente.
Gabarito: alternativa B.
4.
A retrospectiva é uma prática comum em metodologias ágeis, onde:
A) A equipe revisa o código fonte do projeto
B) O cliente fornece feedback final sobre o produto
C) O progresso do projeto é apresentado aos stakeholders
D) A equipe reflete sobre o processo e identifica melhorias E) São realizadas atividades de
treinamento
Comentários
A retrospectiva em metodologias ágeis é quando a equipe (alternativa D) reflete sobre o processo
de trabalho que foi realizado durante um período específico, como um sprint, por exemplo. Nessa
prática, são discutidos os pontos positivos e negativos, identificando-se oportunidades de melhoria
para otimizar o trabalho futuro.
Gabarito: alternativa D.
5.
Sobre os conceitos básicos de Aprendizado de máquina assinale a alternativa correta.
a) Teoricamente, aumentar o tamanho do conjunto de treinamento para atingir uma
densidade suficiente de instâncias de treinamento não é uma solução para a maldição da
dimensionalidade.
b) No aprendizado baseado em modelo, o sistema aprende os exemplos e, em
seguida, generaliza para novos casos usando uma medida de similaridade para compará-
los com os exemplos aprendidos.
c) Algoritmos de aprendizado de máquina diferentes possuem desempenho diferente
mesmo que recebam uma quantidade gigantesca (suficiente) de dados.
d) A seleção de recursos envolve a escolha dos recursos mais úteis para treinar o
modelo entre os recursos existentes.
e) Quando falamos de overfitting de um modelo de aprendizado, significa que o
modelo tem um bom desempenho nos dados de treinamento e generaliza bem.
Comentários
Vamos comentar cada uma das alternativas.
a) Em teoria, uma solução para a maldição da dimensionalidade poderia ser aumentar o
tamanho do conjunto de treinamento para atingir uma densidade suficiente de instâncias de
treinamento.
b) No aprendizado baseado em instância, o sistema aprende os exemplos de cor e, em
seguida, generaliza para novos casos usando uma medida de similaridade para compará-los com os
exemplos aprendidos (ou um subconjunto deles).
Outra maneira de generalizar a partir de um conjunto de exemplos é construir um modelo a partir
desses exemplos e depois usar esse modelo para fazer previsões. Isso é chamado de aprendizado
baseado em modelo.
c) Em um famoso artigo publicado em 2001, os pesquisadores da Microsoft Michele Banko e
Eric Brill mostraram que algoritmos de aprendizado de máquina muito diferentes, incluindo os
bastante simples, tiveram um desempenho quase idêntico em um problema complexo de
desambiguação de linguagem natural uma vez que receberam dados suficientes.
d) CERTO! Uma parte crítica do sucesso de um projeto de Machine Learning é apresentar um
bom conjunto de recursos para treinamento. Esse processo, chamado de engenharia de recursos,
envolve as seguintes etapas:
Seleção de recursos (selecionando os recursos mais úteis para treinar entre os recursos existentes)
Extração de recursos (combinando recursos existentes para produzir um mais útil - como vimos
anteriormente, os algoritmos de redução de dimensionalidade podem ajudar)
Criação de recursos (criando recursos reunindo novos dados)
e) Overfitting significa que o modelo tem um bom desempenho nos dados de treinamento,
mas não generaliza bem.
Gabarito: alternativa D.
6.
Qual das alternativas abaixo não apresenta um tipo de algoritmo de cluterização.
a) Centroid-based Clustering.
b) Density-based Clustering.
c) Distribution-based Clustering.
d) Hierarchical Clustering.
e) Sklearn Clustering
Comentários
Dentre as alternativas acima, a única que não representa um tipo de clustering é o sklearn
clustering. O sklearn vai apresentar um conjunto de algoritmos de clustering presentes na
biblioteca, mas não podem ser definidos como um tipo de algoritmo de clusterização. Os vários
tipos de agrupamento são:
• Clustering baseado em conectividade (clustering hierárquico)
• Clustering baseado em centroides (métodos de particionamento)
• Clustering baseado em distribuição
• Clustering baseado em densidade (métodos baseados em modelo)
• Agrupamento difuso
• Baseado em restrições (agrupamento supervisionado) Gabarito: alternativa E.
7.
Um dos tópicos mais relevantes para aprendizado de máquina está associado aos parâmetros
e hiperparâmetros dos modelos de dados. Quando dividido de acordo com essa
nomenclatura parâmetro está associada aos elementos do modelo que são ajustados durante
o treinamento. Já os hiperparâmetros são definidos antes do treinamento e podem melhorar
a qualidade do resultado obtido. Dentro deste contexto, assinale a alternativa correta:
a) Em um modelo de redes neurais, os pesos e vieses são considerados hiperparâmetros.
b) A quantidade de neurônios em uma camada é considerada um parâmetro do modelo
de redes neurais profundas.
c) Em um algoritmo de KNN, a métrica de distância deve ser usada para calcular a
distância entre pontos é considerada um hiperparâmetro, para tal, podemos usar a
distância euclidiana ou Manhattan ou ordens superiores da métrica Minkowski.
d) Em redes neurais, as funções de ativação são usadas para introduzir uma linearidade
em cada nó.
e) A busca por hiperparâmetros ótimos é chamada de otimização de hiperparâmetros, ou
seja, a busca pela combinação de hiperparâmetros para a qual o modelo treinado
apresenta o melhor desempenho no conjunto de dados de treinamento.
Comentários
Vamos comentar cada uma das alternativas:
a) Os pesos e vieses são parâmetros associados aos modelos de redes neurais. Durante o
treinamento, esses valores são ajustados como o objetivo de melhorar a capacidade de previsão do
modelos. Neste caso, um função custo é definida e a nossa meta é atingir o menor valor possível
para esta função fazendo os ajustes nos parâmetros.
b) A quantidade de neurônios por camadas é considerada um hiperparâmetro do modelo de
redes neurais.
c) O algoritmo K-nearest neighbor (KNN) pode ser usado como um algoritmo de aprendizado
de máquina supervisionado ou não supervisionado e pode ser aplicado a problemas de
classificação, regressão, agrupamento e detecção de valores discrepantes. Em um algoritmo de
KNN, a métrica de distância deve ser usada para calcular a distância entre pontos é considerada um
hiperparâmetro, para tal, podemos usar a distância euclidiana ou Manhattan ou ordens superiores
da métrica Minkowski.
d) As funções de ativação são usadas para introduzir uma não linearidade em cada nó. Poucas
coisas que precisamos ter certeza ao decidir as funções de ativação são, elas devem ser usadas em
milhares e milhões de nós, e a propagação reversa usa suas derivadas, então tanto a função quanto
sua derivada devem ser menos complexas computacionalmente. Algumas das ativações
amplamente utilizadas são ReLU, Sigmoid e Leaky ReLU.
e) A busca por hiperparâmetros ótimos é chamada de otimização de hiperparâmetros, ou seja,
a busca pela combinação de hiperparâmetros para a qual o modelo treinado apresenta o melhor
desempenho para um determinado conjunto de dados (generalização).
Gabarito: alternativa C.
8.
Qual é a importância da prototipagem no Design Thinking?
A) Testar ideias de forma rápida e econômica
B) Implementar soluções finais
C) Coletar feedback dos usuários
D) Iterar e melhorar soluções
E) Todas as alternativas anteriores estão corretas
Comentários
A importância da prototipagem no Design Thinking é abranger várias áreas. Ela permite (E) todas as
alternativas anteriores:
• Testar ideias de forma rápida e econômica: Os protótipos permitem experimentar conceitos
sem investimentos significativos, identificando o que funciona e o que precisa ser ajustado.
• Implementar soluções finais: Os protótipos podem evoluir para implementações finais à
medida que são refinados e validados.
• Coletar feedback dos usuários: Os protótipos são ferramentas valiosas para obter feedback
dos usuários sobre a usabilidade e eficácia das soluções propostas.
• Iterar e melhorar soluções: Com base no feedback recebido, os protótipos são iterados e
aprimorados para alcançar soluções mais eficazes e alinhadas às necessidades dos usuários.
Gabarito: alternativa E.
9.
Por que a empatia é fundamental no Design Thinking?
A) Para entender as necessidades dos concorrentes
B) Para criar soluções complexas
C) Para compreender profundamente os usuários
D) Para definir objetivos financeiros
E) Para identificar tecnologias emergentes
Comentários
A empatia é fundamental no Design Thinking porque (C) é importante compreender
profundamente os usuários. Ao colocar-se no lugar dos usuários, os designers podem entender
suas necessidades, desejos, preocupações e experiências, o que permite criar soluções mais
relevantes e eficazes. Essa compreensão empática é a base para todo o processo de design
centrado no ser humano, garantindo que as soluções criadas atendam verdadeiramente às
necessidades dos usuários.
Gabarito: alternativa C.
10.
Qual é o objetivo principal do Design de Serviço em Tecnologia da Informação (TI)? A)
Criar produtos físicos de alta qualidade.
B) Desenvolver interfaces de usuário complexas.
C) Atender às necessidades dos usuários e das organizações.
D) Minimizar o uso de tecnologias avançadas.
E) Fornecer suporte técnico exclusivo.
Comentários
Vamos analisar as alternativas:
A) ERRADA. O objetivo principal do Design de Serviço em TI não é criar produtos físicos, mas
sim desenvolver serviços de alta qualidade para atender às necessidades dos usuários e das
organizações.
B) ERRADA. O Design de Serviço em TI não visa necessariamente criar interfaces complexas,
mas sim interfaces intuitivas e acessíveis para os usuários.
C) CERTA. O objetivo principal do Design de Serviço em TI é atender às necessidades dos
usuários e das organizações, garantindo que os serviços sejam projetados e entregues de forma
eficaz e eficiente.
D) ERRADA. Minimizar o uso de tecnologias avançadas não é o objetivo do Design de Serviço
em TI, pois ele visa utilizar tecnologias adequadas para suportar a entrega de serviços de
qualidade.
E) ERRADA. Embora o suporte técnico seja uma parte importante do ecossistema de TI, não é o
objetivo principal do Design de Serviço em TI.
Gabarito: alternativa C.
11.
Qual etapa do processo de Design de Serviço em TI envolve a criação de protótipos e iteração
com base no feedback dos usuários? A) Entendimento do Usuário.
B) Design Centrado no Usuário.
C) Integração de Tecnologia.
D) Gestão de Processos.
E) Prototipagem e Iteração.
Comentários
Vamos analisar as alternativas:
A) ERRADA. A etapa de Entendimento do Usuário está relacionada à pesquisa e análise das
necessidades dos usuários, não envolve a criação de protótipos.
B) ERRADA. O Design Centrado no Usuário foca na criação de interfaces e experiências que
atendam às necessidades dos usuários, mas não aborda diretamente a criação de protótipos e
iteração.
C) ERRADA. A Integração de Tecnologia se refere à escolha e integração de tecnologias para
suportar os serviços, não inclui a criação de protótipos.
D) ERRADA. A Gestão de Processos envolve o gerenciamento eficiente dos processos de entrega
dos serviços, não aborda a criação de protótipos.
E) CERTA. A etapa de Prototipagem e Iteração envolve a criação de protótipos dos serviços e a
iteração com base no feedback dos usuários, permitindo melhorias contínuas ao longo do
processo.
Gabarito: alternativa E.
12.
Qual princípio do Design de Serviço em TI envolve a escolha e integração de tecnologias
adequadas para suportar os serviços? A) Design Centrado no Usuário.
B) Prototipagem e Iteração.
C) Integração de Tecnologia.
D) Entendimento do Usuário.
E) Gestão de Processos.
Comentários
Vamos analisar as alternativas:
A) ERRADA. O Design Centrado no Usuário foca na experiência do usuário, não na escolha e
integração de tecnologias.
B) ERRADA. A Prototipagem e Iteração envolvem a criação de protótipos e iteração com base
no feedback dos usuários, não abordam diretamente a integração de tecnologia.
C) CERTA. A Integração de Tecnologia é o princípio do Design de Serviço em TI que envolve a
escolha e integração de tecnologias adequadas para suportar os serviços.
D) ERRADA. O Entendimento do Usuário se refere à compreensão das necessidades dos
usuários, não à integração de tecnologia.
E) ERRADA. A Gestão de Processos envolve o gerenciamento eficiente dos processos de entrega
dos serviços, não a integração de tecnologias.
Gabarito: alternativa C.