Você está na página 1de 99

Combinações Restritas e Binômios

Brasília-DF.
Elaboração

André de Faria Thomáz

Produção

Equipe Técnica de Avaliação, Revisão Linguística e Editoração


Sumário

APRESENTAÇÃO.................................................................................................................................. 5

ORGANIZAÇÃO DO CADERNO DE ESTUDOS E PESQUISA..................................................................... 6

INTRODUÇÃO.................................................................................................................................... 8

UNIDADE I
PRINCÍPIO DA CONTAGEM..................................................................................................................... 9

CAPÍTULO 1
A CONTAGEM .......................................................................................................................... 9

CAPÍTULO 2
REPRESENTAÇÃO NUMÉRICA .................................................................................................. 15

UNIDADE II
TIPOS DE COMBINATÓRIA..................................................................................................................... 38

CAPÍTULO 1
ARRANJO .............................................................................................................................. 38

CAPÍTULO 2
PERMUTAÇÕES ....................................................................................................................... 40

CAPÍTULO 3
COMBINAÇÕES...................................................................................................................... 44

UNIDADE III
COMBINAÇÕES RESTRITAS.................................................................................................................... 47

CAPÍTULO 1
INTRODUÇÃO......................................................................................................................... 47

CAPÍTULO 2
FUNDAMENTOS E TEOREMAS................................................................................................... 52

CAPÍTULO 3
APLICAÇÕES........................................................................................................................... 64

UNIDADE IV
BINÔMIOS............................................................................................................................................ 69

CAPÍTULO 1
INTRODUÇÃO......................................................................................................................... 69
CAPÍTULO 2
COEFICIENTES BINOMIAIS ....................................................................................................... 76

CAPÍTULO 3
BINÔMIO DE NEWTON ............................................................................................................ 82

REFERÊNCIAS................................................................................................................................... 97
Apresentação

Caro aluno

A proposta editorial deste Caderno de Estudos e Pesquisa reúne elementos que se


entendem necessários para o desenvolvimento do estudo com segurança e qualidade.
Caracteriza-se pela atualidade, dinâmica e pertinência de seu conteúdo, bem como pela
interatividade e modernidade de sua estrutura formal, adequadas à metodologia da
Educação a Distância – EaD.

Pretende-se, com este material, levá-lo à reflexão e à compreensão da pluralidade


dos conhecimentos a serem oferecidos, possibilitando-lhe ampliar conceitos
específicos da área e atuar de forma competente e conscienciosa, como convém
ao profissional que busca a formação continuada para vencer os desafios que a
evolução científico-tecnológica impõe ao mundo contemporâneo.

Elaborou-se a presente publicação com a intenção de torná-la subsídio valioso, de modo


a facilitar sua caminhada na trajetória a ser percorrida tanto na vida pessoal quanto na
profissional. Utilize-a como instrumento para seu sucesso na carreira.

Conselho Editorial

5
Organização do Caderno
de Estudos e Pesquisa

Para facilitar seu estudo, os conteúdos são organizados em unidades, subdivididas em


capítulos, de forma didática, objetiva e coerente. Eles serão abordados por meio de textos
básicos, com questões para reflexão, entre outros recursos editoriais que visam tornar
sua leitura mais agradável. Ao final, serão indicadas, também, fontes de consulta para
aprofundar seus estudos com leituras e pesquisas complementares.

A seguir, apresentamos uma breve descrição dos ícones utilizados na organização dos
Cadernos de Estudos e Pesquisa.

Provocação

Textos que buscam instigar o aluno a refletir sobre determinado assunto antes
mesmo de iniciar sua leitura ou após algum trecho pertinente para o autor
conteudista.

Para refletir

Questões inseridas no decorrer do estudo a fim de que o aluno faça uma pausa e reflita
sobre o conteúdo estudado ou temas que o ajudem em seu raciocínio. É importante
que ele verifique seus conhecimentos, suas experiências e seus sentimentos. As
reflexões são o ponto de partida para a construção de suas conclusões.

Sugestão de estudo complementar

Sugestões de leituras adicionais, filmes e sites para aprofundamento do estudo,


discussões em fóruns ou encontros presenciais quando for o caso.

Atenção

Chamadas para alertar detalhes/tópicos importantes que contribuam para a


síntese/conclusão do assunto abordado.

6
Saiba mais

Informações complementares para elucidar a construção das sínteses/conclusões


sobre o assunto abordado.

Sintetizando

Trecho que busca resumir informações relevantes do conteúdo, facilitando o


entendimento pelo aluno sobre trechos mais complexos.

Para (não) finalizar

Texto integrador, ao final do módulo, que motiva o aluno a continuar a aprendizagem


ou estimula ponderações complementares sobre o módulo estudado.

7
Introdução
Este material tem o intuito de gerar reflexão e controle das atividades e cálculos
estruturais, vamos representar funções de duas variáveis no sistema de coordenadas
tridimensional, gerando superfícies, e esse fato fará com que na maior parte do texto
estejamos estudando os conceitos com base nesse tipo de função, pois, acima desse
número de variáveis, não existe a possibilidade de representação geométrica, o que
pode dificultar o estudo.

Iremos analisar e obter limites dessas funções, as inclinações de tangentes e taxas


de variações nas direções dos dois eixos coordenados, as chamadas derivadas
parciais, assim como aprenderemos a calcular integrais duplas e triplas, mudando
de sistema de coordenadas para facilitar o cálculo em algumas situações. Para
finalizar, estudaremos as equações diferenciais, que são aquelas que envolvem
derivadas em sua lei de formação.

Nos ambientes de trabalho, essa situação é ainda mais evidente, pois as tomadas de
decisões não são mais dependentes apenas de intuição, cada vez mais as empresas
buscam estratégias para escolher as melhores opções de modo a favorecer os
processos e otimizar os lucros obtidos, o que exige dos profissionais uma formação
que lhes permita lidar com as informações, organizando-as, interpretando-as e
construindo análises que possam contribuir com sua atuação nas mais diversas
áreas.

Diante desse contexto, a proposta de estudos nesta disciplina envolve um


campo associado à matemática e que pode contribuir com as ações já citadas,
chamado de estatística, em conjunto com a probabilidade. Assim, os estudos
serão direcionados aos fundamentos dos estudos estatísticos, dentre os quais
podemos destacar a representação e análise de dados, além do estudo de tópicos
de análise combinatória e probabilidade, que podem contribuir com a formação
profissional por meio do desenvolvimento de competências e habilidades
essenciais ao exercício da profissão escolhida.

Objetivos
» Aplicar ações combinatórias.

» Conhecer e desenvolver binômios.

» Analisar métodos matemáticos e estatísticos.

8
PRINCÍPIO DA UNIDADE I
CONTAGEM

CAPÍTULO 1
A contagem

Para entendermos melhor como aconteceu e como funciona o princípio da


contagem, imagine que uma lanchonete pretende compor um novo prato para a
reinauguração do estabelecimento. Para a criação desse prato, o chefe dispõe de
dois tipos de carnes, três tipos de legumes e dois tipos de temperos. Denotando
os tipos de carnes por e, os tipos de legumes por, e, além dos temperos por e,
sabendo que o prato será composto por um item de cada tipo, as possibilidades
de pratos que podem ser compostos podem ser listados conforme a seguir.

Figura 1. Contagem inicial.

Fonte: Adaptado de Sven (2016).

Desta forma, segue a lista de todas as possibilidades para a composição do novo


prato relacionado ao problema da lanchonete.

Podemos transmitir que os projetos compreendem um plano ou esquema


apresentados de forma a descrever detalhadamente um empreendimento a ser
realizado, sendo delineados para cumprir objetivos por meio de entregas.

A partir disso, aprendemos que os projetos podem ser classificados quanto a sua
tipologia, podendo ser: projetos de sistemas, de mapeamento de processos, de
infraestrutura e de estratégia. Nesse ponto, notamos, ainda, que o projeto possui
um ciclo de vida formado pelas fases de conceituação, de planejamento e de
implementação (execução) e controle.

9
UNIDADE I │ PRINCÍPIO DA CONTAGEM

No que tange à gestão de processos por dados matemáticos, aprendemos que


ela pode ser definida como um enfoque de desenvolvimento organizacional que
objetiva o alcance de melhorias qualitativas de desempenho nos processos, tendo
como base uma visão objetiva e sistêmica das atividades, estruturas e recursos
necessários para cumprir os objetivos no negócio.

Já as rotinas de desenvolvimento de aplicação correspondem ao primeiro passo


para atender às necessidades do negócio. Para o sucesso do desenvolvimento das
aplicações, são necessários um gerenciamento efetivo e um processo de revisão nos
projetos, de modo que ambos apoiem as decisões sobre escopo, prazos e recursos.
Em relação às rotinas de gerenciamento de mudança e redesenho de processo, tanto
o gestor da TI quanto sua equipe podem fomentar e gerenciar mudanças técnicas e
de processos de negócio.

As vantagens e as desvantagens relacionadas à tecnologia da informação envolvem


aspectos técnicos e organizacionais. Quanto ao aspecto técnico, quando este foge do
controle, acaba por representar um desafio a ser encarado pelas organizações.

Depois disso, conhecemos a respeito do princípio da contagem, um instrumento


por meio do qual são estabelecidas a padronização e a minimização de desvios
na execução das atividades, devendo ter simplicidade, abrangência total e
objetividade. Como outra ferramenta na gestão de processos, compreendemos
a instrução de trabalho, que se apresenta como um importante documento ao
sistema de gestão da qualidade.

Em relação à gestão de dados, percebemos que ela é definida como uma função
gerencial, a qual visa à cooperação das pessoas que atuam nas organizações para o
alcance dos objetivos, tanto organizacionais como individuais. Nessa perspectiva,
descobrimos a definição de competências e sua estrutura: conhecimento, habilidade e
atitude.

Desenvolvido com o objetivo de proporcionar a representação gráfica das relações


entre os cargos nas organizações, aprendemos que o organograma representa uma
forma de esboçar graficamente a departamentalização dentro de uma empresa,
enquanto que o funcionograma apresenta-se como importante instrumento
para a caracterização de processos, ao permitir uma “fotografia” dos trabalhos
desenvolvidos por uma determinada área da empresa.

No que diz respeito à gestão do planejamento, vimos que, nas organizações,


o planejamento estratégico pode se desdobrar em três níveis: institucional,
intermediário ou tático e operacional, correspondendo, assim, a um processo
10
PRINCÍPIO DA CONTAGEM │ UNIDADE I

administrativo que visa estabelecer a melhor direção a ser seguida pela empresa,
com o objetivo de otimizar o grau de fatores externos, não controláveis, atuando
de forma inovadora e diferenciada. Para tanto, notamos também que, no
mapeamento dos processos, todas as estratégias devem ser desdobradas ao longo
da organização, de modo que consigam abranger todos os setores, funções e
processos, promovendo a articulação e alinhamento para uma atuação integrada
em direção aos objetivos formulados.

Abordamos o processo de comunicação com a apresentação dos elementos emissor,


mensagem e receptor, assim como as vantagens e benefícios para as organizações no
gerenciamento de projetos: redução do aparecimento de surpresas, desenvolvimento
de diferenciais competitivos e novas técnicas com alto valor agregado.

Assim conforme apresentado no quadro, podem ser elaborados 12 tipos de pratos


diferentes a partir dos ingredientes disponíveis, e suas variaveis.

Perceba que a quantidade de pratos consiste no produto entre os números 2, 3


e 2, os quais representam, respectivamente, a quantidade de tipos de carnes, de
legumes e de temperos disponíveis. Esse produto pode ser calculado da seguinte
forma:

2 x 3 x 2 = 12

Assim isso ocorre porque, nesse problema, podemos empregar um conceito


essencial da análise combinatória: o princípio fundamental da contagem.

Portanto de acordo com o princípio fundamental da contagem, também chamado


de princípio multiplicativo, se um evento ocorre em etapas sucessivas e
independentes, de modo que existam possibilidades associadas à primeira etapa,
possibilidades para a segunda etapa, e assim sucessivamente, até possibilidades
para a última etapa, então, teremos que é o número total de possibilidades
associadas à ocorrência do evento (SVEN, 2016).

Uma forma de evidenciar todas as possibilidades da ocorrência de um


evento é por meio da árvore de possibilidades (SVEN, 2016), desde que
envolva uma pequena quantidade de possibilidades para não dificultar
a visualização. Considerando novamente o exemplo de elaboração dos
pratos do restaurante, a árvore de possibilidades associada é dada como
segue.

11
UNIDADE I │ PRINCÍPIO DA CONTAGEM

Figura 2. Controle da contagem.

Fonte: (Adaptado de Sven (2016).

Desta forma, podemos construir todas as possibilidades listadas anteriormente,


permitindo, inclusive, a identificação de alguma possibilidade que não foi listada.

Contemplemos um outro exemplo envolvendo o princípio fundamental da


contagem. A funcionária de uma loja precisa vestir um dos manequins presentes
no interior do estabelecimento com as peças da nova coleção, a qual é composta
por quatro modelos de blusas, três modelos de calças, dois modelos de sapatos e
quatro tipos de colares.

Sabendo que o manequim será vestido com um único modelo de cada uma das
peças blusa, calça, sapato e colar, queremos determinar de quantas formas
diferentes o figurino desse manequim pode ser composto. Para isso, podemos
empregar o princípio fundamental da contagem, considerando que o evento seja
a composição do figurino do manequim, o qual será dividido em quatro etapas, a
saber: escolha do modelo de blusa, escolha do modelo de calça, escolha do par de
sapatos e escolha de colar.

As estruturas organizacionais gerenciadas por projetos permitem a criação de


valor por meio do estabelecimento do funcionamento global da empresa, em
função de todos os seus processos. Como resultado, proporcionam-se clareza
e objetividade no atendimento das atividades, de modo que a visibilidade nas
tarefas e o conhecimento do negócio da organização sejam assegurados, assim

12
PRINCÍPIO DA CONTAGEM │ UNIDADE I

como o estímulo para ações que promovam maior desempenho ao fornecimento


de serviços, com uso eficiente de recursos, além da definição adequada de
responsabilidades e interfaces, o que acarreta o controle de entradas, saídas e a
eliminação de custos e atividades redundantes.

Vale abordar, ainda, vantagens relacionadas ao aperfeiçoamento de capacidades


estratégicas, como a de antecipar, gerenciar e responder às mudanças advindas do
macroambiente organizacional, e a de maximizar as oportunidades de negócios.
Em contraste com o enfoque nos produtos ou serviços ofertados, a abordagem
por processos implica a ênfase da forma pela qual o trabalho é realizado, sendo
um modelo eficiente quando as organizações estabelecem seu foco na projeção e
consolidação da imagem e satisfação do cliente.

O princípio fundamental da contagem pode ser empregado quando o evento em


estudo possui etapas independentes, ou seja, quando a escolha da primeira não
influencia nas possibilidades para as demais etapas. Essa é uma condição que deve
ser verificada para que seja possível aplicar o princípio em questão na resolução
do problema. Além disso, é necessário que o evento em estudo ocorra em etapas
sucessivas.

Como essas etapas apresentam, respectivamente, quatro, três, duas e quatro


possibilidades, independentes e sucessivas, pelo princípio em questão, temos:

4 x 3 x 2 x 4= 96

Logo, existem 96 possibilidades diferentes de compor o figurino do manequim,


considerando apenas as peças da nova coleção. Veja que, nesse caso, estamos
considerando que a escolha de uma peça de determinado tipo não influencia na
escolha das demais peças, o que caracteriza a independência das etapas.

Além disso, observe que, pela quantidade de possibilidades, seria inviável construir
uma árvore de possibilidades associada, ou mesmo uma listagem para descrever
a situação. Por isso, a importância da fórmula empregada para a resolução de
problemas relacionados ao princípio fundamental da contagem.

Agora, é preciso conhecer quais são as técnicas que envolvem a contagem.

No princípio fundamental da contagem, existem outros conceitos do campo


da combinatória que permitem o estudo dos agrupamentos e a avaliação das
possibilidades correspondentes. Nesse contexto, podemos destacar três conceitos.

13
UNIDADE I │ PRINCÍPIO DA CONTAGEM

Desta forma, podem ser classificados em simples, no caso de os agrupamentos


não envolverem elementos repetidos, ou compostos, quando existe a presença de
repetição entre os elementos em estudo (THOMAZ, 2012).

Perceba que os arranjos e permutações são empregados quando desejamos


estudar a formação de grupos nos quais a ordem dos elementos é relevante,
sendo a diferença entre eles relativa à quantidade de elementos considerada.
Por outro lado, as combinações têm relação com agrupamentos nos quais a
ordem é irrelevante. Devido a essa diferença, na resolução de problemas que
envolvem a combinatória, a identificação do tipo de agrupamento a ser formado
é uma etapa essencial para identificação de qual conceito pode ser aplicado em
cada situação.

O grau de liberdade é a diferença entre o número de determinações independentes


(dimensão da amostra) e o número de parâmetros estatísticos a serem avaliados
na população. Os graus de liberdade representam a quantidade de informação
que seus dados fornecem e você pode usar para estimar os valores de parâmetros
populacionais desconhecidos, além de calcular a variabilidade dessas estimativas.
Quanto maior for a amostra, teremos mais informações sobre a população e,
consequentemente, um grau de liberdade maior para estes cálculos.

14
CAPÍTULO 2
Representação numérica

A aquisição de bens, como veículos e imóveis, pode ser feita por meio de
financiamentos intermediados por agências bancárias. Ao emprestar determinado
valor, cobra-se uma recompensa para liberação imediata do capital, ou seja, os
juros. Esses são alguns exemplos abordados durante o capítulo, nos quais as
funções são a chave para realização dessas operações.

Vivemos na era da informação, e a sua importância nas organizações aumenta a


cada dia, em virtude de ser determinante para a melhoria de processos, produtos
e serviços, quando interpretada sob um viés estratégico.

Essa perspectiva é viabilizada com a substituição de um foco, inicialmente, na


gestão de documentos e dados para uma concepção de recursos informacionais.

Tal fato mostra resultados em relação à eficácia operacional, além de voltar-se


à redução de desperdícios e automatização de processos. Nesse contexto, esta
disciplina possibilita compreendermos profundamente a importância que os
recursos informacionais possuem na gestão de processos e projetos matemáticos,
envolvendo, ainda, alguns elementos como recursos humanos e planejamento
necessário nos âmbitos estratégico, tático e operacional.

Além disso, fica o convite para compreender os sistemas de informações e como


eles são aplicados às organizações, na concepção de uma rede de informação
cujos fluxos alimentam os processos e projetos organizacionais, como a tomada
de decisão e a possibilidade de troca de dados entre diferentes áreas e sistemas.

A compreensão desses aspectos torna-se essencial para a gestão de empresas, ao


partirmos da noção de que a troca e a integração de informações possibilitam ao
gestor um olhar holístico a respeito dos processos que permeiam os negócios ao
considerarmos o papel estratégico que as informações representam e ao envolver a
utilização de tecnologias de informação no desenvolvimento de produtos, serviços
e capacidades de melhoria contínua. Tudo isso configura às empresas vantagens
estratégicas sobre forças competitivas advindas do seu ambiente externo.

Estudaremos conceitos fundamentais como: classificação de funções, domínio,


imagem, crescimento, classificação das variáveis, gráficos, valor numérico e outras
generalidades, proporcionando, sempre que possível, a ligação com aplicações.

15
UNIDADE I │ PRINCÍPIO DA CONTAGEM

O objetivo primordial é a compreensão dos conceitos mais aprofundados


sobre funções, diferentes dos abordados em um curso de ensino básico, por
exemplo. Uma boa compreensão dessa parte do curso é fundamental para
o aprendizado que se segue, no qual serão tratados assuntos relacionados
ao estudo de limites e derivadas, que são fundamentados pela apreciação
adequada de funções.

Diante de um cenário cada vez mais competitivo, as organizações buscam


constantemente a excelência operacional e de qualidade para seus negócios. Nesse
sentido, veremos, neste capítulo, que se torna imprescindível a compreensão de
aspectos relevantes na adoção do gerenciamento matemáticos e de processos na
administração organizacional e até mesmo empresarial, como é caso de projetos que
envolvem cálculos.

Cada vez mais, exige-se que as empresas desenvolvam estratégias que garantam
sua sustentabilidade e contínuo crescimento, assim como no contexto operacional,
práticas e estratégias preventivas se mostram importantes. Nesse contexto, a
gestão de projetos e processos surge como uma forma de atender às premissas
e possibilitar, por meio de uma robusta estrutura de gerenciamento, que metas
estratégicas sejam alcançadas e ocorram resultados positivos.

Dessa forma, veremos que a gestão correta de projetos e processos traz benefícios
para a organização, sendo aplicada na resolução de problemas, os quais definem
precisamente as tomadas de decisões e possibilitam uma visão holística e
estratégica do negócio. Ao abranger todos os níveis organizacionais, ou seja,
estratégico, tático e operacional, veremos, também, que é necessário pensar
sobre a gestão de pessoas como um meio de garantir que sejam determinadas
e seguras as reais habilidades necessárias para o monitoramento de projetos e
processos, de modo que eles sejam eficientes.

Nessa perspectiva, verifica-se a importância do investimento estratégico nas pessoas,


processos e sistemas, haja vista que ele possibilita uma garantia de qualidade e
assertividade ao desenvolvimento de projetos e suas aplicabilidades.

Vale ressaltar que as funções podem ser entendidas como o fundamento básico no
estudo do cálculo.

Presentes desde o início da civilização, os projetos e o seu gerenciamento vêm


sendo executados e concretizados acompanhando a evolução da humanidade,
percebidos na construção de templos, cidades, pirâmides etc., os quais exigiam
uma grande organização humana, assim como fatores tecnológicos, para que
pudessem atingir os resultados de um esforço temporário.

16
PRINCÍPIO DA CONTAGEM │ UNIDADE I

Acompanhando mudanças, como as relacionadas à evolução tecnológica e à


complexidade de novos negócios, a ideia de gerenciamento de projetos surge pela
necessidade de gerenciar as organizações de forma sistematizada, orientada para a
eficiência e guiada pela otimização de tempos, movimentos e recursos.

Foi apenas no século XX que essa área se desenvolveu e foi impulsionada, em


virtude de fatores relacionados às pressões de prazos e mercados, à necessidade
de motivação de equipe e ao atendimento dos padrões de qualidade. Fatores
esses que fazem com que o gerenciamento de projetos seja intensificado e cada
vez mais aceito e difundido, uma vez que proporciona agilidade e segurança nas
tomadas de decisões.

Segundo Stewart (2014), a teoria que envolve funções reais de uma variável é
de suma importância para o cálculo diferencial, pois conceitos fundamentais
da disciplina, como limites e derivadas, são definidos a partir dela. Portanto,
pode-se dizer que tudo o que é feito no cálculo envolve funções e seus gráficos.

Os cálculos tradicionais assumem que os eventos que afetam o projeto são


previsíveis, seguindo o fluxo de um nível alto para um nível baixo, ou seja,
torna-se necessário que uma fase ou grupo de processos termine antes que
outro possa ser iniciado, de modo que as fases do projeto sejam cumpridas
dentro do planejado. Em complemento, toda mudança exige aprovação de
um comitê, o qual avalia. Uma vez confirmada, os processos de planejamento
devem ser refeitos.

O conhecimento acerca do ciclo de vida do projeto possibilita aos envolvidos


entender a sequência lógica dos eventos, reconhecer limites ou marcos a fim de
que o gerente consiga prever mudanças de estilo, ritmo e aumento da pressão.

Outro ponto proporcionado pelo conhecimento do ciclo de vida do projeto está


relacionado às referências a partir das quais os membros da equipe podem
avaliar o andamento e perceber o que ainda é preciso aumentar durante o
tempo de vida do projeto. Isso impacta, também, a qualidade, à medida que as
datas de conclusão se aproximam, diminui-se a incerteza quanto ao resultado
do projeto, pois o ciclo de vida fornece pontos de referências para a confrmação
da qualidade do produto.

O ritmo acelerado das mudanças dadas tanto na economia quanto na política


promove grandes desafios às organizações, no que tange à capacidade de
se adaptarem a novos cenários, bem como oferece respostas eficazes a esses
desafios. As necessidades de adaptações contínuas, com vistas a atender aos

17
UNIDADE I │ PRINCÍPIO DA CONTAGEM

desejos dos clientes e objetivos dos acionistas, trazem consigo a demanda por
instrumentos que possibilitem o controle e a condução de processos de forma
eficiente e eficaz.

Por se tratar de um requisito para a sobrevivência das organizações nos dias


atuais, a tecnologia da informação se apresenta como ferramenta poderosa e de
auxílio, tanto no desenvolvimento das tarefas organizacionais rotineiras como
no alcance da vantagem competitiva e prestação de serviços ao consumidor.
Entretanto, para seu uso adequado, tornam-se necessários, além de aparato
tecnológico, recursos humanos qualificados.

O emprego da tecnologia da informação tem seu início na década de 1960, período


no qual o tema tecnológico que pairava nas organizações era o processamento
de dados. Nesse período, as empresas direcionavam seus recursos para o
processamento centralizado de dados em mainframes (grandes computadores) e
para sistemas de controles operacionais.

De acordo com Swokowski (1995), função é, basicamente, uma relação entre duas
grandezas, na qual o valor de uma depende do valor da outra. Essa dependência
deve ser biunívoca, ou seja, para cada valor de uma grandeza, deverá existir um
único valor associado à outra. Caso contrário, a relação entre as grandezas não se
chamará função. Em suma, podemos definir uma função real de variável real da
seguinte maneira:

» Definição 1.1. Dados A e B subconjuntos do conjunto dos números


reais (ℝ), dizemos que f: A → B é uma função (ou regra). Faz-se
corresponder a cada elemento x de A (variável independente) um
único elemento y de B (variável dependente).

Na definição acima, A é chamado de domínio da função f, denotado por D(f), e B é


chamado de contradomínio da função. Assim, temos:

» Definição 1.2. Dado x ∈ A, o elemento y = f(x) ∈ B é chamado


de valor da função f no ponto x. O conjunto de todos os valores
assumidos pela função, subconjunto de B, é chamado de imagem
de f e denotado por Im(f).

Devemos tomar muito cuidado ao decidirmos se uma relação entre dois conjuntos é
de fato uma função. O exemplo em seguida representa um contraexemplo, isto é, uma
relação que não é uma função como apresentada na Definição 1.1.

18
PRINCÍPIO DA CONTAGEM │ UNIDADE I

Exemplo: (A+B) trata de uma função que pode ser utilizada de várias formas
como base de controle de dados estatisticos e matemáticos. Cálculo de tempo e
espaço para Nasa, fórmulas de Matemática.

Observamos que, de fato, o exemplo acima é um contraexemplo, pois, apesar


de termos uma relação entre os elementos dos dois conjuntos (A e B), não
cumpre a propriedade de que para cada elemento do conjunto A temos um único
correspondente em B, como apresenta a Definição 1.1.

Exemplos estão ao nosso redor: a distância percorrida por um objeto, que cai de
certa altura, depende do tempo; os juros pagos sobre um investimento dependem
do tempo que o dinheiro permanece investido; a temperatura de ebulição da água
depende da altitude; a área de um círculo depende da medida do seu raio; a
pressão de um gás engarrafado depende da sua temperatura, entre outras.

Dada uma função

f: A → B x → f(x) = y,

podemos representá-la por meio de uma expressão matemática. Por exemplo,


A = π r 2 é a função que expressa a medida da área A de um círculo, a partir da
medida de seu raio r.

Uma outra maneira de representar uma função é por meio do seu gráfico.

» Definição 1.3. Dada uma função f. O gráfico de f é o conjunto dos


pontos (x,f(x)) do plano cartesiano, tais que x ∈ D(f).

A representação gráfica de uma função também é conhecida como “forma” geométrica


da função e, neste caso, ela é representada no plano cartesiano, também conhecido
como plano xy.

Thomas (2012) afirma que conhecer a teoria por trás das funções, saber
classificá-las, esboçar seus gráficos e calcular valores numéricos são pré-requisitos
para que os conceitos do cálculo diferencial possam ser definidos. Em geral, na
educação regular, as ementas da disciplina de matemática contemplam, em todas as
séries do Ensino Médio e nas últimas do Ensino Fundamental, a teoria de funções,
que engloba boa parte do que será necessário nessa disciplina. As funções são o
elemento-chave para descrição do mundo real, em termos matemáticos. Elas podem
ser classificadas em dois grandes grupos (THOMAS, 2012):

» Algébricas: funções constituídas a partir de polinômios e operações


algébricas (adição, subtração, multiplicação, divisão, potenciação

19
UNIDADE I │ PRINCÍPIO DA CONTAGEM

e radiciação). São exemplos de funções algébricas: função linear,


quadrática, racional, irracional, potência etc.

» Transcendentes: são funções que não são algébricas. Incluem as


trigonométricas, trigonométricas inversas, exponenciais, logarítmicas,
hiperbólicas e hiperbólicas inversas.

Nos tópicos seguintes, vamos nos dedicar ao estudo de alguns tipos de funções
algébricas e transcendentes.

Uma função algébrica na forma:

f(x) = y = mx + n, com m ≠ 0, n ∈ o é denominada função afim (de 1o grau).

Podemos classificá-la, ainda, em subcasos particulares:

» Função crescente, quando m > 0.

» Função decrescente, quando m < 0.

» Função linear, quando m ≠ 0 e n = 0.

» Função identidade, quando m = 1 e n = 0.

Seu gráfico é uma reta que corta o eixo x em sua raiz ou zero (f(x) = 0), n é seu
coeficiente linear (ordenada do ponto em que a reta passa pelo eixo y) e m é o
coeficiente angular ou inclinação da reta, conforme figura a seguir:

Gráfico 1. Funções.

Função crescente Função decrescente

Fonte: Adaptado de Sven (2016).

Além das funções afins, podemos destacar dois tipos de funções particulares. São
elas: Função constante: f(x) = y = k, k ∈ ℝ.

Função módulo: f(x) = y = |x|.


20
PRINCÍPIO DA CONTAGEM │ UNIDADE I

O domínio da função constante é D(f) = ℝ e Im(f) = k. E seu gráfico sempre


será uma reta paralela ao eixo x, passando por y = k. Já a função módulo tem
D(f) = ℝ e Im(f) = [0, + ∞) e seu gráfico tem um “bico” na origem.

Tanto em engenharia, quanto em outras áreas, é bastante comum a realização


de testes em laboratórios para a validação de sistemas reais. Os resultados são
obtidos na forma de pontos cujo comportamento demonstra a relação de uma
variável independente com outra variável dependente. O gráfico desses pontos é
chamado de diagrama de dispersão.

Dado um diagrama de dispersão, é pouco provável que haja uma curva


que passe exatamente por cada ponto e que descreva realmente o sistema
observado em laboratório. A razão disso é que a obtenção de dados
experimentais possui erros inerentes ao processo. Além do mais, algumas
variáveis podem sofrer alterações durante a experiência, o que provocará
desvios na resposta.

Dessa forma, para definir uma função analítica que descreva o sistema, deve-se
optar por uma curva que melhor se ajuste a esses pontos (e não uma curva
interpoladora que passe por todos os pontos), levando em consideração a
existência de erros que, em geral, não são previsíveis.

Com uma curva ajustada, da melhor forma possível, ao conjunto de pontos,


pode-se prever valores da função fora do intervalo fornecido, ou seja, é possível
fazer uma extrapolação com uma aproximação razoável. O ramo da matemática
que estuda as técnicas para obtenção de funções de ajuste de curvas é o cálculo
numérico.

As informações abaixo, foram adaptadas e contêm dados fictícios sobre o tempo


médio (t), em minutos, necessário para a montagem de lotes de tamanho (y),
em unidades, de um modelo específico de carro popular em uma determinada
fábrica. Cabe observar que, dependendo do tamanho do lote, o tempo médio para
a montagem pode variar por motivos diversos.

Percebe-se, visualmente, que os pontos se comportaram de modo que uma função


linear (reta) é a que melhor se ajustará a esse conjunto de pontos. Sendo assim,
vamos buscar os coeficientes linear e angular da função linear a ser ajustada, usando
a calculadora científica.

21
UNIDADE I │ PRINCÍPIO DA CONTAGEM

Seguindo o exemplo dos dados tabelados anteriormente, vamos utilizar um ajuste


de curvas por regressão, para obtermos a função linear que melhor se ajusta a eles
e, em seguida, responder às seguintes questões:

a. Qual a função linear obtida?

Solução: Para encontrar a função linear requerida siga os passos


indicados na seção 1.5. Assim chegamos à função linear: y = – 4,7584 +
0,4978x

b. Qual o coeficiente angular da função linear? O que esse valor


representa? Solução: B = 0,4978, representando a taxa de
crescimento da grandeza.

c. Qual o coeficiente linear da função linear?

Solução: A = – 4,7584, representando a ordenada do ponto em que a


reta obtida no ajuste linear passa pelo eixo y.

d. Qual a variável independente? O que ela representa? Solução: x,


representando o tempo em minutos.

e. Qual a variável dependente? O que ela representa? Solução: y,


representando o número de veículos montados. Exemplo 1.2

Um administrador de uma fábrica de materiais esportivos descobre que custa


R$ 4.200,00 para fabricar 120 raquetes de tênis em um dia e R$ 9.600,00 para
produzir 300 raquetes de tênis em um outro dia.

Lembre-se: Para obter uma função linear, dados dois pontos, ou um ponto e seu
coeficiente angular, pode-se utilizar as seguintes relações:

m = y2 _ y1

ey_y

= m ( x _x0 )

x2 _ x1= 0

a) Vamos expressar o custo como função do número de raquetes produzidas,


supondo que ela seja linear.

22
PRINCÍPIO DA CONTAGEM │ UNIDADE I

É a observação o início mais bruto da pesquisa científica. Isso significa,


simplesmente, atentar-se aos fatos, mas sem descrevê-los ainda. Esse papel de
observar os fatos é uma etapa não menos importante da pesquisa; pode-se dizer
até que é uma etapa crucial, por isso o observador deve sempre se colocar da forma
mais neutra possível em relação ao objeto observado. O olhar do observador deve
ser atento, pois é o observar que percebe os vários problemas que permeiam o
universo social. Da observação, passa-se aos problemas.

Solução:

m = y2 - y1

x2 - x1

9600 - 4200 = 30

300 - 120

y - y0 - m (x -x0) y - 4200 - 30 (x - 120) y - 30x + 600

b) O esboço do gráfico dessa função é dado por: solução:

Gráfico 2. Função linear.

Quantidade de vasos

Fonte: Adaptado de Sven (2016).

Neste problema, a inclinação do gráfico e seu significado são os seguintes:

Solução: a inclinação é igual a 30 e representa o custo unitário da produção de cada


raquete.

23
UNIDADE I │ PRINCÍPIO DA CONTAGEM

A ordenada do ponto de intersecção com o eixo y e seu significado são os seguintes:


Solução: y = 600 e representa o custo fixo da empresa.

As funções quadráticas, como comentado acima, são muito utilizadas em modelagem


de problemas. Um exemplo corriqueiro é o cálculo de juros em financiamentos
(imobiliários, automotivos etc.). Por exemplo, ao financiar um veículo, precisamos
calcular o valor dos juros ao longo do período do financiamento e, ao plotar esses
dados, observamos que a curva tendência Juros x Período pode ser representada por
uma função quadrática.

Com o auxílio dos recursos para confecção de gráficos, no programa de planilha


eletrônica, vamos construir o gráfico do valor desses juros ao longo do período de
financiamento.

Denotamos o seno de um ângulo α do círculo trigonométrico (Gráfico 3) ao


segmento OP1 (ordenada do ponto P). Com base nisso, definimos a função. Uma
função f: ℝ → ℝ tal que f(x) = sen x, que associa a cada x real o número real y =
sen x. Assim, temos que o domínio da função seno é o conjunto D(f) = ℝ e o seu
conjunto imagem é Im(f) = [–1, 1].

Já o cosseno de um ângulo α do círculo trigonométrico (Gráfico 3) é o segmento


OP2 (abcissa do ponto P). E definimos a função:

f: ℝ → ℝ tal que f(x) = cos x,

que associa a cada x real o número real y = cos x. Logo, temos que, o domínio da
função cos- seno é o conjunto D(f) = o e o seu conjunto imagem é Im(f) = [–1, 1].

As funções seno e cosseno são funções trigonométricas que se caracterizam por ter
período igual a 2π, pois sen(x + 2π) = sen x, e o mesmo vale para cosseno, pois é
análogo para a função cosseno cos(x + 2π) = cos x. Observem:

Gráfico 3. Aplicabilidade I.

Fonte: Adaptado de Sven (2016).

24
PRINCÍPIO DA CONTAGEM │ UNIDADE I

As funções trigonométricas que se seguem são definidas a partir das funções seno e
cosseno, vistas da subseção anterior.

» Tangente: tg (x) = sen (x)

» Secante: sec (x) =

» 1 cos (x)

» Cotangente: cotg (x) = cos (x)

» Cossecante: cossec (x) =

» 1 sen (x)

Observamos que as funções tangente e secante estão definidas para todos os


número reais x tais que cos x ≠ 0, a ssim temos que:

D(tg) = D(sec) = {x ∈ ℝ ; x ≠ π/2 + nπ, n ∈ ℝ }

Em contrapartida, as funções cotangente e cossecante estão definidas


para todos os números reais x tais que sen x ≠ 0, ou seja, D(cotg) =
D(cossec) = {x ∈ ℝ ; x ≠ nπ, n ∈ ℝ }.

O período das funções tangente e secante é igual a π, como podemos observar:

Gráfico 4. Aplicabilidade II.

3 0

Fonte: Adaptado de Sven (2016).

A seguir, apresentaremos os dois últimos tipos de funções abordadas neste


material, que podem ser consideradas como elementares, tendo em vista sua
grande aplicabilidade e importância na matemática.

25
UNIDADE I │ PRINCÍPIO DA CONTAGEM

Exemplo:

O valor de R$ 12.000,00 foi aplicado em regime de juros compostos a uma taxa


de 2,5 % ao mês durante 12 meses. Ao retirar o montante resultante da aplicação,
a pessoa terá descontado do juro da aplicação 7% de imposto sobre aplicações
financeiras envolvendo lucros mais 0,5 % de contribuição para obras relacionadas
à saúde pública, segurança e educação, totalizando 7,5 % de descontos. Vamos
calcular o valor líquido dessa aplicação, isto é, o valor, debitados os impostos.

Solução:

Pela função dos juros compostos, temos:

M = C · (1 + i)t

Onde M é o montante resultante, C é o capital aplicado, i é a taxa e t o tempo.

Observe que essa fórmula para cálculo de juros compostos é um exemplo de função
exponencial.

Assim, pelos dados do problema temos:

» M = 12000 · (1 + 0,025)12

» M = 12000 · 1,02512

» M = 12000 · 344889

» M = 16138,67

Os impostos serão cobrados somente sobre os juros da aplicação.

J=M–C

onde J representa os juros, M o montante resultante e C o capital aplicado.

J = 16138,67 – 12000

J = 4138,67

Valor do imposto = 7,5% · 4138,67 → 0,075 · 4138,67 → R$ 310,40. O lucro líquido


da aplicação será dado por:

Mlíquido = M – I

onde Mlíquido é o montante líquido, M o montante resultante e I o valor do imposto.

26
PRINCÍPIO DA CONTAGEM │ UNIDADE I

Mlíquido = 16138,67 – 310,40

Mlíquido = 15828,27

O valor do lucro líquido, isto é, debitados os devidos impostos, será de R$ 15.828,27.

Ao descrevermos certas operações, deparamo-nos com dados discretos, (dados


contáveis). Desse modo, vamos utilizar gráficos de dispersão no próprio
programa de planilha eletrônica para obter, por meio de ajuste de curvas, a
função que melhor se ajusta ao conjunto de dados estudados.

A ideia é retomar a visão gráfica de algumas funções como linear, quadrática


e exponencial, além de aspectos teóricos e algébricos, aliados a outras
situações-problema que envolvem essas classes de funções.

Para construir um gráfico de um conjunto de pontos usando planilha eletrônica e


realizando ajuste de curvas, deve-se:

» Selecionar as colunas com as variáveis envolvidas, na ordem,


independente à esquerda e dependente à esquerda, como nos pares
ordenados (x, y);

» Escolher o gráfico de dispersão entre as opções sugeridas;

» Adicionar os nomes nos eixos e título do gráfico;

» Para adicionar a função que melhor se ajusta aos pontos que foram
plotados no gráfico, deve-se utilizar o comando “inserir linha de
tendência” e marcar a opção “exibir equação no gráfico”. Nesta parte,
serão mostradas as opções disponíveis para o ajuste, sendo eles:
exponencial, linear, logarítmica, polinomial de grau n, potência e
média móvel.

A escolha se dá pela percepção visual em relação àquela que mais se aproxima de


todos os pontos, em média.

Segundo Stewart (2014), o conceito de limite é uma ideia central que distingue o
cálculo da áe da trigonometria. É fundamental para calcular inclinações de retas
tangentes, a velocidade de um corpo em movimento ou avaliar se uma função é, ou
não, contínua.

Desenvolveremos o conceito de limite e partiremos de uma problematização,


que dará origem a uma função de várias sentenças, em que os pontos de

27
UNIDADE I │ PRINCÍPIO DA CONTAGEM

descontinuidade serão utilizados como ganchos para definições como


limites laterais e globais. Na sequência, será definido o que é o limite de
uma função. Mas, antes disso, a noção intuitiva será explorada para avaliar
limites de funções usando tabelas e gráficos.

Então, com a ideia geométrica compreendida, utilizemos as propriedades operatórias


dos limites para calcular limites de maneira algébrica, o que, em alguns casos, fará
aparecer resultados “estranhos”, as chamadas indeterminações. Veremos também as
estratégias para eliminar essas indeterminações e obter os valores dos limites.

A noção de limite fornece um caminho preciso para distinguir esses


comportamentos, além de permitir analisar situações que envolvem a ideia de
infinito, ideia essa associada a valores que crescem ou decrescem ilimitadamente.
A aplicação geométrica de usar limites para avaliar a inclinação de uma reta
tangente, nos levará, na sequência do estudo, à definição de derivada de uma
função, assunto-chave do cálculo diferencial.

Quando colocamos em um sistema de coordenadas alguns pontos do gráfico de


uma função cujos valores foram gerados em laboratório ou coletados no campo,
geralmente unimos esses pontos por uma curva não interrompida. O objetivo é
mostrar quais seriam os valores prováveis da função em todos os instantes em
que foram feitas as medições. Fazendo isso, supomos trabalhar com uma função
contínua, o que indica que esses valores seguem determinado comportamento,
sem “saltar” de um valor para outro, deixando de assumir algum valor entre eles.

Qualquer função cujo gráfico possa ser esboçado de maneira ininterrupta, sem retirar
o lápis do papel em um único movimento contínuo, é um exemplo de função contínua.
Neste capítulo, investigaremos o que significa exatamente o fato de uma função ser
contínua, colocando as condições para que isso se verifique, condições essas que
envolvem o conceito de limite.

As falhas em um produto normalmente são avaliadas partindo dos pequenos


componentes para o produto comum todo. Além disso, as possibilidades de elas
acontecerem são constantes: defeitos em materiais, imperfeição em junções e
componentes, entre outros. Assim, o principal é compreender a consequência
e a gravidade disso para o produto. Também é importante destacar que alguns
problemas são considerados menos importantes, por não terem impacto
significativo ao consumidor.

28
PRINCÍPIO DA CONTAGEM │ UNIDADE I

Os cálculos que não valorizam essa etapa na aplicação do método não têm clareza
da importância dos riscos e, consequentemente, vão ter custo alto para a correção
do projeto e a solução da ocorrência.

Muitas vezes, tal desvalorização pode gerar o fim do projeto, que teria um alto
custo em responder ao erro ocorrido.A identificação de riscos é uma atividade
que deve ser realizada ao longo do projeto. Trata-se de uma atividade iterativa
e crucial para a realização do projeto dentro do prazo, custo e escopo definidos.
Assim como os requisitos podem mudar ao longo do projeto, o mesmo ocorre
com os riscos, por isso, faz-se necessária uma avaliação contínua, a fim de que
se observe todas as alterações de requisito e suas interferências negativas no
projeto.

A maior vantagem desse ciclo é a prevenção de falhas, que pode causar problemas
nas especificações dos cálculos e, mais tarde, falhas no produto. Realizados os
testes, se necessário, ocorre a otimização de alguns cálculos. Após isso, devem ser
atualizadas as especificações e sua documentação.

Nesse ciclo, também podem ocorrer análises e otimização relacionadas ao


encurtamento da cadeia produtiva, eliminação de componentes (quando um
componente substitui vários outros que contribuam para a tolerância dos
parâmetros críticos), dentre eles: diminuição da tolerância de componentes e
otimização do seu processo, verificação da probabilidade de erros e alteração de
método de montagem e modificação da disposição de componentes a partir dessa
alteração.

As informações dessas atividades devem ser descritas na documentação técnica do


produto, bem como nas especificações finais do projeto detalhado e das normas
específicas. Elas servirão de suporte para a fase de preparação para a produção
e o desenvolvimento de manuais de operação e manuais de funcionamento
e instruções, que ocorrem ainda no detalhamento do projeto.Uma atividade
importante aqui e que colabora com o desenvolvimento da documentação técnica
é odesenvolvimento da embalagem do produto.

Esta não considera somente o desenvolvimento da embalagem em si, mas


a distribuição, transporte e entrega do produto. Uma embalagem pode ter
diferentes funções como: contenção, proteção, comunicação e interação.

Dependendo da complexidade da embalagem, seu processo de desenvolvimento


deve ser considerado um subconjunto no cálculo total, pois envolve criação,
desenho técnico e recursos de produção. Devem ser analisados também o custo e a
fabricabilidade da embalagem, assim como do produto.

29
UNIDADE I │ PRINCÍPIO DA CONTAGEM

Esse ciclo tem como principal objetivo aumentar a confiabilidade e,


consequentemente, a manutenção do produto e de seus cálculos. Deve-se avaliar
a ordem das atividades da fase de projeto detalhado e seus ciclos, de acordo
com a especificidade do produto desenvolvido e da realidade da organização,
trabalhando a integração do time de desenvolvimento, realizando as atividades
de forma paralela e de acordo com os princípios da engenharia simultânea.

A otimização do cálculo e seu processo estão relacionados ao seu planejamento


estratégico. Primeiramente, pela adequação e definição dos processos de
desenvolvimento do projeto e pelos processos produtivos. Alterações em qualquer
um desses processos pode modificar o planejamento das questões relacionadas,
desde a duração até os custos.

A otimização de processos também auxilia a melhoria contínua, pois, criando-se uma


cultura de melhoria dos processos produtivos de um determinado produto, sendo
possível melhorar o processo produtivo também da empresa e de todos os produtos
envolvidos, desenvolvendo aqueles com maior vantagem competitiva.

É na fase de projeto detalhado que os parâmetros críticos do produto são


gerenciados e sua estrutura validada para a fabricação, de acordo com o
detalhamento das especificações em desenvolvimento.

A gestão de custos prevê o custo real do produto e as possibilidades, juntamente


com os testes e as validações do produto, advindos do ciclo de detalhamento,
aquisição e otimização.

Isto garante ao time de desenvolvimento as respostas necessárias para a conclusão


do desenvolvimento do produto e a preparação para a produção. As decisões se
baseiam nas informações relacionadas ao projeto e na lucratividade esperada. É
importante decidir comprar ou criar os cálculos, orçar com fornecedores (quando
é o caso) e considerar todos os aspectos relativos ao ciclo de vida do produto como
logística, armazenamento, embalagem e produção.

Para se planejar a descontinuidade de um produto, é necessário ter conhecimento


sobre as informações das etapas de desenvolvimento, principalmente as que
dizem respeito ao lançamento dele. Isto é feito na atualização do plano do
fim de vida. Juntamente com o plano, devem ser observados relatórios de
acompanhamento do desempenho e informações resultantes dos processos que
permitem a geração de distribuição, feedback, monitoramento do mercado,
atendimento ao cliente e processos de apoio.

30
PRINCÍPIO DA CONTAGEM │ UNIDADE I

Outra atividade importante nessa fase é a de descontinuar a produção, que


ocorre por tempo indeterminado, até que não haja mais nenhuma fabricação ou
montagem. Por fim, realiza-se a finalização do suporte do produto, que se inicia
no tempo planejado, e diz respeito à finalização do atendimento da assistência
técnica e ao encerramento da fabricação de peças de reposição.

É nessa atividade que consideramos o ciclo de vida do produto totalmente


acabado. Nesse processo, caso ocorra uma necessidade de algum cliente específico,
independentemente do objetivo, deve-se analisar a possibilidade de atendê-lo.
Trata-se de uma atividade complexa que finaliza todas as operações relacionadas
ao produto, exceto as que se referem ao seu recebimento. Todas as atividades
da fase e seus resultados devem ser registrados, bem como a realização de uma
avaliação geral e encerramento do projeto, sendo responsável pelo produto
produzido, mesmo após o seu descarte, principalmente em se tratando de bens
de consumo duráveis. Por esse motivo, ela deve se preparar para o recebimento, o
descarte ou mesmo o reaproveitamento do produto ou de parte dele.

O planejamento dessa fase é tão importante quanto o desenvolvimento e


o lançamento do produto, pois o recebimento dos descartados de forma
desorganizada pode influenciar uma série de problemas para a organização,
como falta de espaço de armazenamento, falta de conhecimento sobre onde
realizar o descarte, gerando resíduos dentro da empresa, além da preocupação
necessária com questões ambientais e o custo alto para a firma. Assim, se houver
a necessidade da desmontagem do produto, as linhas de desmontagem e de
recolhimento devem ser acionadas; e os processos e equipamentos, gerenciados
para a execução.

Em alguns casos, há a possibilidade de reaproveitamento ou remanufaturamento,


ou seja, as suas partes podem ser desmontadas e reutilizadas.

Quando o produto passa a apresentar pouca relevância do ponto de vista econômico


ou estratégico, ou não demonstrar mais vantagem competitiva no mercado,
a descontinuidade pode ser uma solução, ainda que não esteja no momento
planejado. Alguns sinais de que o produto precisa ser monitorado quanto à sua
descontinuidade são os seguintes:

Exemplo: existe uma maneira de representar a função valor da conta de energia


de acordo com os dados que aparecem na tabela. Essa função deve contemplar os
dados referentes aos intervalos correspondentes às faixas de tarifas e aos valores
pagos por faixa.

31
UNIDADE I │ PRINCÍPIO DA CONTAGEM

Solução: Uma função que possui mais de uma lei de formação, de acordo com os
intervalos da variável independente, é denominada função definida por várias
sentenças.

Vamos representar essa função para a classe considerada:

» 0,15645x, se 0 < x < 30;

» 0,39024x, se 30 < x < 100;

» y=

» 0,58535x, se 100 < x < 220;

» 0,65039x, se x > 220;

Exemplo: agora, vamos esboçar o gráfico dessa função.

Solução: para esboçar o gráfico de uma função de várias variáveis, basta o fazer por
partes, de acordo com os intervalos da variável independente e as respectivas leis de
formação da variável dependente.

Para o caso em questão, serão quatro subintervalos em x, partindo de x = 0, em


que os gráficos serão retas com diferentes inclinações a cada subintervalo.

Na sequência, introduziremos propriedades que podem ser usadas para


calcular muitos limites de maneira algébrica, sendo que nesses cálculos serão
consideradas as igualdades simbólicas a seguir, envolvendo os símbolos de
mais ou menos infinito que representam quantidades de módulo infinitamente
grande. É conveniente salientar que o infinitamente grande não é um número,
e sim uma tendência de uma variável, ou seja, a variável aumenta ou diminui,
sem limite.

Na realidade, os símbolos + ∞ e – ∞ não representam números reais, portanto


não podem ser aplicadas a eles as técnicas usuais de cálculo algébrico.

Dado k Є R, teremos as seguintes igualdades simbólicas e resultados


indeterminados:

» k + ∞ = ∞

» k + (–∞) = –∞

» (+∞) + (+∞) = +∞

32
PRINCÍPIO DA CONTAGEM │ UNIDADE I

» (–∞) + (–∞) = –∞

» (±∞) . (±∞) = ±∞

» ∞–∞ = indeterminação

» ∞.0 = indeterminação

» ∞/∞ = indeterminação

» ∞0 = indeterminação

» 0/0 = indeterminação

» 1∞ = indeterminação

Seja c um número real, lim f(x) = L e lim g(x) = M, então:

x a

» Limite de uma constante é a própria constante: lim c = c

xa

» Limite da soma de funções é a soma dos limites: lim [ f(x) + g(x)] = L + M

xa

» Limite do produto de funções é o produto dos limites: lim [f(x) ∙ g(x)]


=L∙M

xa

» Limite do quociente de funções é o quociente dos limites, desde que o


limite do denominador seja diferente de zero: lim f(x) = L , desde que M
≠0

x a g(x) M

» Limite da potência é a potência do limite: lim [f(x)]n = Ln (desde que


seja Ln real)

xa

» Limite do logaritmo é o logaritmo do limite: lim log [f(x)] = log L,


desde que L > 0

33
UNIDADE I │ PRINCÍPIO DA CONTAGEM

xa

» Limite de funções trigonométricas: lim cos [f(x)] = cos (L) x a

Exemplo:

Vamos utilizar as propriedades listadas acima para determinar o seguinte limite:


lxim2 (x2 - 3x + 1)

Solução: lim x2 - lim 3x + lim 1 22 - 3 · 2 + 1 = -1

x 2 x 2 x2

A seguinte propriedade pode ser aplicada no cálculo de alguns limites:

Propriedade da substituição direta: lim f(x) = f(a) x a

As funções que possuem essa propriedade são chamadas de contínuas em a.


Formalmente, uma função é dita contínua em um ponto a do seu domínio se o
limite de f(x) quando x tende a a existe e é igual a f(a).

Exemplo: vamos calcular lim (x2 - 5x + 1) x 2

Solução: = 22 - 5 ∙ 2 + 1 = -5

Exemplo:

Sendo f(x) 3x, se x ≤ 2, vamos calcular lim f(x).

x2, se x > 2 x 2

Solução: Se x < 2 lim f(x) = 3.2 = 6, por outro lado, x > 2 lim f(x) = 22 = 4.

= x 2-

Portanto, não existe o limite = x 2+

Exemplo

Vamos calcular, agora, o seguinte limite: lim f(x) 5x2 - 2x +1

x 3 6x – 7

Solução: lim 5x2 - 2x +1 = 5 • 32 - 2 • 3 +1 = 40 = 3 7

x 3 6x - 7

34
PRINCÍPIO DA CONTAGEM │ UNIDADE I

6∙3-7

11 11

Exemplo 2.17:

E agora calcularemos limite de x 5 e 3, onde:

3x2 - 4x + 9

Solução:

lim

3x2 - 4x + 9 =

lim 3x2 - 4x + 9 =

75 - 20 + 9 =

64 = 4

x 5 x5

Em alguns casos, não é possível calcular o valor do limite por simples


substituição, pois, às vezes, ao adotar tal procedimento nos deparamos
com indeterminações. Para resolver esses limites, deve-se eliminar as
indeterminações e, para fazer isso, existem muitos procedimentos que
podem ser adotados, de acordo com a característica da função que
aparece no limite.

Vejamos alguns exemplos:

Exemplo:

Vamos obter os valores dos imites a seguir:

» a) lim x2 - 4

35
UNIDADE I │ PRINCÍPIO DA CONTAGEM

x2x-2

Solução:

Note que, se utilizássemos substituição no cálculo do limite, obteríamos:

lim = 0

x 2 0

Mas se montássemos a tabela dos valores de f(x) conforme x se aproxima de 2,


veríamos que o limite tenderia a 4. Então, como calular o limite de forma mais
rápida sem termos que toda vez montarmos a tabela?

A técnica mais eficiente para isso, quando estamos lidando com quociente de
polinômios, é utilizar a fatoração de polinômios. Nesse caso, como x2 – 4 = (x + 2)
(x – 2), temos que:

lim

x 2

(x - 2)(x - 2)

(x - 2)

lim

x 1(x + 2)

2+2=4

Aqui, pudemos cancelar o (x – 2) do numerador com o (x – 2) do denominador,


pois, quando calculamos, não estamos considerando x = 2, mas sim os x’s tão
próximos de 2 quanto queiramos, ou seja, (x – 2) é diferente de zero.

» b) lim = 0, onde

h0

Solução:

Lim= 0

Lim = lim, que


36
PRINCÍPIO DA CONTAGEM │ UNIDADE I

= lim h (6 + h)

= lim (6 + h) = 6

Observe que esse exemplo foi um pouco mais simples, pois pudemos
simplesmente dividir o numerador por h. Assim como no item a) somente
pudemos fazer isso porque estamos considerando h próximo de zero, mas não
igual a zero.

Aqui a conta é um pouco mais complicada, mas a técnica utilizada foi semelhante
à do item.

Note que aqui que Lim= 1 quando t está próximo (e até mesmo igual) de zero,
então, se mutiplicarmos a função original por esse quociente, o limite não deve
mudar.

37
TIPOS DE UNIDADE II
COMBINATÓRIA

CAPÍTULO 1
Arranjo

Imagine que uma equipe de uma empresa de marketing seja composta por seis
funcionários. Para um novo projeto a ser desenvolvido, é necessário indicar dois
membros para a comissão responsável, sendo um presidente e um vice-presidente.
De quantas formas diferentes essa comissão pode ser formada, sabendo que todos os
seis funcionários da equipe podem ser indicados para as duas posições citadas? Como
podemos calcular essa quantidade? Há técnicas de contagem para isso?

Note que, no exemplo anterior, o objetivo é formar agrupamentos ordenados,


já que existem duas posições distintas a serem ocupadas pelos funcionários, de
modo que cada agrupamento contenha dois elementos, selecionados dentre
um grupo de seis elementos, sem nenhuma outra restrição associada. Para a
resolução de problemas dessa natureza, podemos empregar o conceito de
arranjo simples, uma vez que o conjunto de elementos tomado por base não
envolve nenhum tipo de repetição. E, além disso, nem todos os elementos do
conjunto base são utilizados na construção dos grupos.

Desta forma considere elementos, a partir dos quais deseja-se construir


agrupamentos ordenados, em que A = N!.

Esses agrupamentos recebem o nome de arranjos simples de elementos. O número


desses agrupamentos é calculado como:

Observe que “n” representa o número total de elementos, enquanto que “p” indica
a quantidade de elementos que compõem cada agrupamento ordenado formado
(SVEN, 2016).

38
TIPOS DE COMBINATÓRIA │ UNIDADE II

Vamos empregar agora o conceito de arranjo simples na resolução do problema


apresentado, relativo à formação da comissão de funcionários. Veja que cada
comissão deve conter dois funcionários, sendo um agrupamento ordenado
pelas posições que cada um pode ocupar, os quais são escolhidos a partir de um
conjunto com seis elementos. Assim, temos uma situação envolvendo arranjos
simples de seis elementos tomados dois a dois, cujo número pode ser calculado
como segue:

Logo, podem ser formadas 30 comissões distintas, considerando as informações


associadas.

Consideremos agora uma modificação nesse problema. Suponha agora que a


equipe, formada pelos seis funcionários, esteja desenvolvendo o novo projeto
e, para isso, cada funcionário deverá cumprir uma das seis tarefas necessárias
para conclusão dos trabalhos. Sabendo que todos os seis funcionários
têm competência para realizar as tarefas necessárias, de quantas formas
diferentes podem ser distribuídas as tarefas a essa equipe? Nesse caso, temos
a formação de agrupamentos ordenados compostos por seis elementos, os
quais correspondem à distribuição de tarefas aos funcionários. Logo, temos
um problema de arranjos simples de seis elementos tomados seis a seis, cuja
quantidade pode ser calculada por:

39
CAPÍTULO 2
Permutações

As permutações estão associadas à uma reordenação dos elementos de uma


coleção. Por meio das permutações, podemos, por exemplo, identificar as
diferentes possibilidades de ordenar uma coleção de livros em uma estante, ou
ainda calcular de quantas formas diferentes podemos distribuir tarefas a um
grupo de funcionários.

O conceito de permutação é empregado em situações provenientes de diversos


contextos, como os próprios da matemática, como é o caso do estudo das
permutações envolvendo triângulos e outras figuras geométricas, mas também
de outras ciências, como a Computação e áreas afins, por meio do emprego de
conceitos relativos a matemática discreta. Vejamos agora algumas das principais
definições associadas ao estudo das permutações.

Considere que determinado evento ocorre em três etapas, de modo que a primeira
está associada a três possibilidades de resultados; a segunda; a duas; e a terceira,
a uma. Assim, temos, pelo princípio fundamental da contagem, que os resultados
associados ao evento podem ser calculados pelo produto: 3 x 2 x 1 = 6

Na análise combinatória, produtos que assumem esse formato podem ser


representados a partir de uma notação específica, denominada fatorial de um
número, o qual é estudado especificamente para números naturais.

Quando estamos diante de problemas em que devemos formar agrupamentos,


envolvendo os mesmos elementos tomados segundo ordens diferentes, podemos
empregar o conceito de permutação. Por exemplo, quando desejamos calcular de
quantas formas diferentes três pilotos podem compor o podium de uma corrida,
temos um problema de permutação. Isto porque desejamos determinar de quantas
formas diferentes podemos classificar os pilotos em primeiro, segundo e terceiro
lugar, sabendo que todos podem ocupar qualquer uma das três posições. E quando
todos os elementos são distintos entre si, temos especificamente o conceito de
permutação simples.

Logo, dados elementos, com um número natural, as permutações simples


correspondem aos agrupamentos ordenados que podem ser construídos a partir
dos elementos. Sendo assim, todos os agrupamentos envolvem todos os elementos
à disposição, os quais diferem entre si apenas em relação à ordem nas quais os
elementos são tomados.
40
TIPOS DE COMBINATÓRIA │ UNIDADE II

Exemplo: Se temos três pilotos a ocuparem o podium de uma corrida, o qual


envolve três lugares, calculando o número de permutações simples associadas,
obtemos P3=3!=6, ou seja, o podium pode ser ocupado de seis formas diferentes.

Observe que a permutação simples consiste no agrupamento em si, considerando


os elementos envolvidos. Por outro lado, a fórmula corresponde à expressão
que podemos empregar para calcular quantas permutações simples podem ser
construídas, ou seja, de quantas formas diferentes podemos organizar os grupos.

Agora, veremos como realizar as permutações com repetição.

Suponha que desejamos determinar o número de anagramas da palavra AMOR.

Um anagrama de uma palavra é construído formando uma nova palavra,


alterando-se as posições das letras presentes na palavra original, de modo que
todas elas sejam consideradas nesse processo.

Por exemplo, ROMA e MORA são anagramas da palavra AMOR, os quais


correspondem a permutações envolvendo o conjunto de letras que compõe a
palavra em questão. Empregando o conceito de permutação simples, o número de
anagramas que podem ser construídos a partir da palavra AMOR são:

P4=4!=4 x 3 x 2 x 1 = 24

Se desconsiderarmos os índices 1 e 2, note que o primeiro e o segundo anagramas


presentes no quadro anterior correspondem a uma mesma palavra, o terceiro e
o quarto são uma mesma palavra e, por fim, o quinto e o sexto também são uma
mesma palavra. Isto é, em suma, a palavra ABA possui três anagramas, diferente
da quantidade que seria obtida pelo cálculo das permutações simples de três
elementos, que consiste em controlar os números .

Considere, inicialmente, que um conjunto seja formado por elementos, com


natural, de modo que os elementos são todos iguais e que os demais elementos do
conjunto sejam todos distintos entre si. Sendo assim, o número de permutações
dos elementos, considerando as repetições presentes, pode ser calculado.

Suponha que um engenheiro precisa vistoriar três empresas, de tal forma que as
distâncias entre as empresas são aproximadamente iguais. Para isso, ele precisa
organizar seu roteiro de modo a visitar todas as empresas, considerando que as
ordens nas quais elas serão visitadas não implicará grandes diferenças em relação
às distâncias percorridas. Assim, o engenheiro deseja saber de quantas formas
diferentes ele pode organizar seu trajeto, de modo que visite todas as empresas

41
UNIDADE II │ TIPOS DE COMBINATÓRIA

em um único dia. Perceba que, nesse caso, temos uma situação em que o objetivo
é estudar a ordenação entre elementos em um mesmo agrupamento, o qual é
formado pelas três empresas.

Veja que, pelo cálculo realizado utilizando a fórmula dada, não existe a
necessidade de listar todos os trajetos possíveis para a quantificação das
possibilidades. Assim, as fórmulas são importantes para a simplificação do
processo de contagem das situações em estudo.

Analisemos agora uma outra situação envolvendo permutações. Considere


que um estudante precisa realizar um cálculo, efetuando uma multiplicação
por meio da calculadora. Nesse cálculo, o estudante precisará multiplicar os
números 3 e 5 entre si, considerando o número 3 duas vezes e o número 5 três
vezes de modo que o produto resulte em 1125. De quantas formas diferentes
esse estudante pode digitar os números na calculadora de modo a obter o
produto desejado?

Observe que esse problema corresponde a uma permutação, porque temos que
analisar as ordens nos quais os números podem ser digitados, e como existem
repetições, então ele configura-se como um problema de permutação com repetição.

Assim, queremos determinar o número de permutações envolvendo cinco


elementos, ou seja, os cinco números que devem ser digitados. Porém, como
temos a repetição do número 3 duas vezes e a repetição do número 5 três
vezes, devemos aplicar a fórmula correspondente, o que permite descartar
as permutações envolvendo o número 3, que resulta em 2!, e as permutações
envolvendo o número 5, dada por 3!. Logo, de posse da propriedade fundamental
dos fatoriais e da fórmula correspondente:

Sendo assim, podemos relacionar os conceitos de arranjos simples e permutações


simples entre si, possibilitando interpretar as permutações simples como um caso
particular dos arranjos simples nas quais os agrupamentos construídos sempre
envolvem todos os elementos disponíveis.

Além dessas observações, veja que nos problemas envolvendo arranjos simples os
agrupamentos formados sempre são ordenados.

Conforme estudado anteriormente, a principal diferença entre os conceitos de


arranjo e combinação diz respeito à ordem. Enquanto nos arranjos simples, a

42
TIPOS DE COMBINATÓRIA │ UNIDADE II

ordem dos elementos nos agrupamentos é relevante, nas combinações simples, a


ordem não é importante. Considerando essa diferença, vejamos algumas situações
nas quais podemos aplicar esses conceitos, verificando, principalmente, os tipos
de condições que podem contribuir com a identificação de qual conceito aplicar
em cada tipo de situação.

Figura 3. Permutações e combinações.

Agrupamentos
Ordenados
Arranjos
Simples Agrupamentos
que evolvem
Permutações
todos os
Simples
Técnicas de elementos do
Contagem conjunto inicial

Agrupamentos
Combinações nos quais a
Simples ordem não
importa

Fonte: Adaptado de Sven (2016).

43
CAPÍTULO 3
Combinações

A análise combinatória, conhecida também como combinatória, enquanto ramo


de estudos da matemática, vem se desenvolvendo desde a Antiguidade. Existem
indícios do uso de conceitos dessa área desde o Antigo Egito, por meio do Papiro
de Rhind, datado de 1650 a.C. aproximadamente, assim como na China Antiga
e em trabalhos desenvolvidos por Leonardo de Pisa, conhecido como Fibonacci
(THOMAZ, 2012).

Vimos que no conceito de permutação o objetivo é construir agrupamentos


envolvendo todos os elementos disponíveis, os quais diferem entre si apenas
pela ordem na qual os elementos são considerados, porém existem situações em
que a quantidade de elementos à disposição para a construção de agrupamentos
é superior ao número de elementos a serem considerados na composição de
cada grupo. Para isso, precisamos estudar outros dois conceitos importantes da
análise combinatória.

A combinatória dispõe de ferramentas que podem contribuir com o estudo


de situações nas quais é necessária a construção de agrupamentos, sejam
eles ordenados ou não, construídos a partir de uma quantidade específica de
elementos. As aplicações dos conhecimentos desse campo estão presentes em
diversas áreas de conhecimento e possibilitam a interpretação e a resolução
de problemas teóricos e práticos. Além disso, uma de suas aplicações reais é o
desenvolvimento da probabilidade, nos mais variados contextos.

Assim, diversos conceitos podem ser estudados no campo da análise combinatória,


os quais estão relacionados à formação de agrupamentos e podem ser diferenciados
entre si com base, principalmente nos tipos de elementos que os compõem e da
forma como eles são organizados. Ests é o caso dos agrupamentos nos quais os
elementos são considerados segundo uma ordem específica, por exemplo.

Diante desse tema, surge o seguinte questionamento: quais são os principais


conceitos estudados pela análise combinatória e em quais situações práticas eles
podem ser empregados?

Aspectos introdutórios da análise combinatória


A análise combinatória tem relação com o processo de contagem, o qual é essencial
para que o ser humano possa viver em sociedade e adequar-se ao sistema utilizado

44
TIPOS DE COMBINATÓRIA │ UNIDADE II

por ela. Ela fornece ferramentas que podem ser empregadas na construção de
agrupamentos e na quantificação de seus elementos, favorecendo a interpretação
de situações provenientes de contextos diversos.

Assim, para a aplicação prática desses conceitos, é essencial um estudo teórico


de modo a compreender as características de cada um deles, analisando as
condições necessárias para a aplicação em situações práticas. Também é
preciso relacioná-los com os tipos de agrupamentos que podem ser formados,
possibilitando uma diferenciação entre os principais conceitos da combinatória.

Introdução à análise combinatória


A combinatória vem sendo estudada desde antes do século XVII, principalmente
relacionadas a questões combinatórias presentes em jogos. Esse campo de
conhecimentos é importante devido à contagem de elementos pertencentes a
agrupamentos, sendo aplicado, por exemplo, no estudo da complexidade de
algoritmos. Desse modo, verifica-se se o número de senhas geradas a partir de
um padrão que atende à necessidade de um sistema de informação, entre outras
possibilidades (THOMAZ, 2012).

Além disso, as técnicas de contagem são importantes no estudo da probabilidade,


por contribuírem com o estudo das possibilidades de ocorrência de um evento para
posteriores cálculos, envolvendo probabilidades de ocorrência de determinados
fenômenos. Assim, vejamos na sequência quais são os principais conceitos que
podem ser empregados no estudo desse campo da matemática.

No estudo da análise combinatória, visamos investigar os diferentes tipos


de agrupamentos que podem ser construídos a partir de um conjunto finito
de elementos, bem como quantificá-los a partir das fórmulas e técnicas
correspondentes.

Dentre os principais conceitos estudados nesse ramo da matemática, podemos


citar o princípio fundamental da contagem, as permutações, os arranjos e as
combinações, de modo que os três últimos podem ser classificados de acordo
com a presença ou não de repetições nos conjuntos tomados por base.

Para a aplicação prática do princípio fundamental da contagem, precisamos estar


diante de fenômenos que ocorrem em etapas sucessivas e independentes, de modo
que o número total de possibilidades da ocorrência do evento seja dado pelo
produto envolvendo as possibilidades de ocorrência de cada etapa.

45
UNIDADE II │ TIPOS DE COMBINATÓRIA

No estudo dos arranjos, permutações e combinações, os fenômenos em questão


devem estar relacionados à formação de agrupamentos a partir de uma quantidade
finita de elementos, de tal forma que para arranjos e permutações a ordem deve
ser importante, enquanto que nas combinações a ordem é irrelevante. Além
disso, para a simplificação dos cálculos envolvendo esses três conceitos, podem
ser empregadas as fórmulas correspondentes, as quais são escritas em função da
notação fatorial.

Veja que os conceitos da análise combinatória apresentam diversas aplicações


práticas, como a composição das placas automotivas, as formações de grupos de
pessoas, a construção de anagramas e senhas, entre outros, os quais podem ser
estudados desde que sejam identificadas suas características principais visando à
associação com os conceitos da combinatória correspondentes.

46
COMBINAÇÕES UNIDADE III
RESTRITAS

CAPÍTULO 1
Introdução

A todo momento nos deparamos com problemas para os quais devemos estimar
valores dos parâmetros relacionados à população, como a média, a partir de dados
amostrais. Para isso, existem estatísticas próprias, chamadas de estimadores, que
permitem que essa estimativa seja a mais correta possível. Para tanto, o valor da
população pode ser definido como um único valor ou um intervalo de possíveis
valores.

As avaliações envolvendo esses estimadores são o objeto de estudo da


estatística inferencial. Assim, lançamos a seguinte pergunta: por que a
compreensão sobre os estimadores é tão importante em todas as áreas que
envolvem pesquisa?

Quando estudamos qualquer parâmetro de uma população, como a média, o


desvio-padrão ou a proporção, é possível que se apliquem a todos os indivíduos
na pesquisa. Nesse caso, teremos realizado um censo e temos 100% de certeza
sobre os valores da população. Porém, quando a população é grande, ou o tempo
disponível para a análise dos dados é pequeno, o desenvolvimento de um censo
se torna impraticável. Além disso, em muitos casos, a avaliação da população
é impossível. Por exemplo, se o objeto de estudo for a segurança de um carro
durante uma colisão, aplicar um censo significaria realizar o teste de colisão em
todos os carros.

Para esses casos, é necessário aplicar a amostragem dos elementos dentro da


população. Uma amostra é, por definição, um subconjunto formado por apenas
alguns elementos selecionados da população e, a partir dos dados fornecidos
por eles, são previstos os valores da população, porém isso gera um problema:
não podemos mais ter certeza sobre a população. A inferência estatística surge,

47
UNIDADE III │ COMBINAÇÕES RESTRITAS

então, como solução para esse problema. Pode-se defini-la como um conjunto
de ferramentas que permite estimar características da população com base em
dados obtidos de uma amostra. Por meio dessas ferramentas, também é possível
responder hipóteses referentes aos parâmetros populacionais.

Após a apresentação de diferentes ferramentas para estimativa de valores


médios em populações a partir de amostras, deve-se ter o cuidado de aplicar
a estatística correta. Perceba que, além de cálculos diferentes, distribuições
diferentes são aplicadas. A escolha deve ser motivada pela necessidade de
estimar a média ou a diferença, e se há algum conhecimento sobre a variância
(ou desvio-padrão) populacional.

Como nem sempre é possível calcular os parâmetros populacionais utilizando


todos os indivíduos da população, é necessário separar uma amostra e, a partir
das informações dela obtidas, estimar as características da população. Para
isso, devemos encontrar um estimador; este é definido como o conjunto de
estatísticas (expressões) aplicadas na amostra de modo a estimar um parâmetro
populacional. Essas estatísticas podem fornecer um único valor ou uma faixa de
valores possíveis.

Por exemplo, vamos estimar a idade média dos alunos que entram em instituições
de ensino superior. Como a quantidade de indivíduos é alta, e nem sempre as
informações sobre eles são de fácil acesso, podemos realizar a amostragem
dos alunos e, a partir dela, calcular a idade média de todos os alunos. Se essa
análise resultar em um único valor, a estatística aplicada é considerada, então,
um estimador pontual. Agora, se a estatística aplicada definir um intervalo
de confiança para o valor médio das idades, teremos um estimador intervalar
que, de modo simples, define uma faixa de possíveis valores para a idade média
populacional.

É importante distinguir os termos “estimador” e “estimativa”. Um estimador


é o conjunto de cálculos, ou seja, o método de determinação do parâmetro. Já a
estimativa é o valor numérico obtido por meio do estimador. Ou seja, existe um
estimador (a expressão para o cálculo de média, por exemplo) para que, com base
na amostra, se obtenha a estimativa.

Os estimadores pontuais são normalmente referenciados como os parâmetros


amostrais:

» média amostral x; desvio-padrão amostral s; variância amostral s²; e


proporção amostral p. De-ve-se ter em mente que, mesmo possuindo
o mesmo nome das estatísticas aplicadas à população, as expressões
aplicadas podem ser diferentes.

48
COMBINAÇÕES RESTRITAS │ UNIDADE III

Os estimadores são aplicados quando se deseja determinar um parâmetro


populacional com base em uma amostra. Eles são de grande valia em diferentes
áreas, pois a avaliação da população pode ser inviável, tanto pelos custos
envolvidos, tempo limitado, ou mesmo pela impossibilidade da análise da
população toda.

Por exemplo, em pesquisas eleitorais, não é possível realizar pesquisas de intenção


de voto semanalmente com todo os eleitores. Nesse caso, uma amostragem é
feita, na qual apenas um pequeno grupo de eleitores é entrevistado e, com base
em um estimador, pode-se determinar a proporção dos eleitores que desejam
votar no candidato A ou B. Além disso, a margem de erro da pesquisa, sempre
apresentada junto com o resultado, é também obtida por meio dos estimadores.
Perceba que, ao término das eleições, essa margem de erro deixa de existir, uma
vez que o resultado da eleição é o parâmetro da população.

Da mesma forma, se desejamos estudar os índices de pobreza ao redor do mundo,


é inviável percorrê-lo perguntando a todos os habitantes sobre seus rendimentos.
Assim, selecionam-se algumas regiões e, com base nos valores obtidos nelas,
deduz-se que o restante do mundo possui as mesmas características.

Agora, imagine uma situação em que se deseja determinar as taxas de


um determinado composto no sangue. Qualquer análise envolvendo
a população implicaria a avaliação de todo o sangue da pessoa, o que é
inviável. Por isso, é feita uma coleta, que é basicamente uma amostragem
e, com base nas informações obtidas nessa amostra, são estimadas as
condições do paciente. Esse é, entre vários motivos, o responsável pelos
resultados apresentarem intervalos de valores considerados saudáveis.

Esses são apenas alguns exemplos da aplicação dos estimadores. Deve-se ter
clareza de que os estimadores são aplicados quando desejamos expressar um
valor populacional com base em uma amostra. Por esse motivo, o valor numérico
obtido por meio de um estimador é a melhor estimativa para os valores da
população.

Aqui é importante destacar que, mesmo que a definição sobre estimador esteja
relacionada à estatística, deve-se ter em mente que seu resultado é uma medida,
um valor. Então, um sistema de medição, como, por exemplo, uma régua, é um
estimador, já que fornece um valor referente à entidade em estudo.

Ao avaliar um estimador, deve-se ter em mente que ele representa um conjunto


de variáveis aleatórias. Por esse motivo, seu valor depende das características

49
UNIDADE III │ COMBINAÇÕES RESTRITAS

da amostra selecionada. Ao avaliar a qualidade de um estimador, um parâmetro


importante é o erro quadrático médio (EQM). Ele é a função da variância dos
dados em torno da estimativa e a distância para o valor exato. Segue a expressão:

EQM(T) = (T - θ)² = var(T) - (viés(T))²,

em que o termo T se refere ao valor do estimador avaliado (por exemplo, a


média) e θ é o valor exato (obtido da população) do parâmetro estudado.

Podemos, assim, identificar três parâmetros importantes na análise dos


estimadores: o estimador pontual, que se refere ao valor do estimador T avaliado;
a variância (o termo var(t)), relativa aos indivíduos em torno da estimativa;
e o termo viés (parâmetro viés(t)), relacionado à distância entre a estimativa
amostral e o valor exato do parâmetro avaliado.

Além disso, antes de compreender as propriedades dos estimadores,


devemos distinguir duas probabilidades envolvidas nas análises. A primeira
probabilidade está envolvida na seleção dos indivíduos da amostra. E a
segunda é a probabilidade de escolha de um valor dentro da amostra.

Ao propor um estimador, algumas propriedades devem ser respeitadas. Um


estimador que não respeite essas propriedades não pode ser considerado
um bom estimador e, por isso, pode não representar corretamente os valores
populacionais. São quatro as propriedades: suficiência, não viés (ou não
tendencioso), consistência e eficiência.

Um estimador é dito não viesado, ou não tendencioso, quando a estimativa


calculada é igual à esperança do próprio parâmetro, ou o erro entre a estimativa
e o valor exato (da população) é nulo. Isso ocorre quando a probabilidade de
sorteio de cada elemento é igual, com a distribuição de probabilidade dos valores
centrada na estimativa. Caso isso não ocorra, é dito que a amostra é polarizada, e
o resultado obtido pela amostra pode tender a um valor diferente do valor exato
do parâmetro.

O critério de suficiência informa que a amostra selecionada possui tamanho


suficiente para expressar de forma clara e completa o comportamento da
população. Desse modo, a adição de qualquer outro indivíduo na amostra não
representa melhoria nos resultados. Quando um estimador se torna suficiente, o
valor obtido pelo estimador não é mais função do tamanho da amostra, uma vez
que ele se torna constante.

50
COMBINAÇÕES RESTRITAS │ UNIDADE III

Um estimador possui consistência; essa propriedade se refere à relação entre


o tamanho da amostra e a aproximação entre o valor estimado e o valor exato,
o que é importante, pois a maioria dos estimadores dependem do tamanho da
amostra. A consistência informa que o aumento do tamanho da amostra implica
a convergência das estimativas para o valor populacional. Se o estimador é bom,
isso implica dizer que o valor do parâmetro tende ao valor exato, com o valor do
EQM diminuindo.

O critério da eficiência define que, ao comparar dois estimadores, o melhor será


aquele que apresentar menor erro quadrático médio (EQM). Quanto menor o EQM
dentro da amostra, melhor a estimativa. Caso dois estimadores possuam o mesmo
viés, a eficiência estará relacionada à dispersão (variância) dos elementos em torno
do estimador.

Os critérios de eficiência e de tendência dos estimadores também podem ser


relacionados, respectivamente, à precisão e à acurácia dos valores. A acurácia
define quão próxima a estimativa obtida pelo estimador está do valor exato.
Então, um estimador não tendencioso possui acurácia alta. Do mesmo modo, um
estimador não tendencioso eficiente é aquele que possui menor dispersão nos
dados. Assim, pode-se dizer que está relacionado à precisão das informações, ou
seja, quanto mais eficiente, mais preciso é o estimador.

51
CAPÍTULO 2
Fundamentos e teoremas

Como dito, os estimadores são funções que permitem estimar o valor populacional
a partir dos dados amostrais. Existem diversos métodos para se obter esses
estimadores, entre eles o método dos momentos e o método de máxima
verossimilhança, que permitem identificar o melhor estimador pontual para cada
parâmetro.

O método dos momentos define que cada parâmetro avaliado possui um momento
de ordem k. Um momento é a média dos valores da amostra elevados a k, ou seja:

Ek = 1 ∑ X k
n i=1 i

Já para a variância, são necessárias duas expressões (k = 2):

Figura 4. Expressões e variância.

Fonte: Adaptado de Sven (2016).

O método da máxima verossimilhança afirma o estimador pontual; é um valor que


maximiza a probabilidade de se obter uma distribuição cujo valor possui maior
chance de estar correto. A partir do conhecimento prévio sobre o comportamento
da função de probabilidade da amostra f(x), é possível obter a expressão para o
estimador, por meio do produtório das probabilidades, em que N é o tamanho da
população de cada elemento da amostra.

L(x) = ∏ f(x)

i=1

52
COMBINAÇÕES RESTRITAS │ UNIDADE III

Desenvolvido o produtório, é aplicado o logaritmo natural na função L(x). Depois,


calculamos a derivada e igualamos a zero. Esse procedimento é realizado quando
se busca a função que maximize a probabilidade da distribuição. Por exemplo,
caso a probabilidade da variável aleatória x seja a normal N(μ,σ²), em que μ e
σ² são, respectivamente, a média e a variância populacional, poderemos obter
o estimador de máxima verossimilhança para a média μ por meio da sequência:

Figura 5. Logaritmos naturais.

Fonte: Adaptado de Sven (2016).

Para a obtenção do estimador de máxima verossimilhança, foi aplicado o conceito de


otimização, que destaca o maior valor (ou menor) de uma função quando a derivada
dela é nula. Mas esse tipo de otimização, na maioria dos casos, é feito por meios
numéricos, aplicando ferramentas computacionais, já que, dependendo da função de
probabilidade, pode não ser possível encontrar a derivada por meios analíticos.

O processo mostrado anteriormente serve para qualquer distribuição de


probabilidade. A derivada em função de μ ocorre porque esse é o estimador de
interesse.

Um estimador pontual ou estimador amostral usualmente aplicado pode ser


uma média amostral, um desvio-padrão (e variância) amostral e uma proporção
amostral. O estimador para a média amostral x é definido como:

53
UNIDADE III │ COMBINAÇÕES RESTRITAS

Os estimadores para o desvio-padrão s e a variância amostral s²:

Figura 6. Variância amostral.

Fonte: Adaptado de Sven (2016).

Perceba que existe uma diferença entre o estimador populacional e o amostral para a
variância. Para o estimador σ², a razão é dada por n; enquanto para o estimador s, a
somatória é dividida por n - 1.

E o estimador da proporção amostral p̂ é obtido por:

número de acertos
p̂ =
n
Ao se estudar a probabilidade de um valor ser selecionado em uma amostra,
é avaliada uma distribuição amostral. Essas distribuições são de grande
importância na inferência estatística, pois permitem estimar a confiança das
estimativas realizadas.

Uma distribuição amostral é definida como uma distribuição de probabilidades de


um parâmetro estatístico obtido de uma amostra aleatória. O comportamento dessa
distribuição depende da distribuição de probabilidade da população original, do
tamanho da amostra e do tipo de amostragem realizada.

Para obter uma distribuição amostral, é definido o tamanho da amostra a ser


avaliada e é calculada a estimativa para todas as amostras possíveis com o
tamanho definido. Construindo um histograma com os valores obtidos, podemos
observar a distribuição amostral daquela população para um determinado
tamanho de amostra.

Por definição, uma variável aleatória é uma função que define o valor numérico de
uma variável quantitativa, cujo valor é definido de forma aleatória. Por exemplo,
em um sorteio, o elemento é escolhido “na sorte”, sem que haja um fator que afete
as chances da variável. Então, a amostragem a ser aplicada para a análise deverá
ser realizada de forma aleatória.

Uma variável aleatória pode ser contínua, aquela cujo intervalo de valores
admitidos é ilimitado, ou discreta, que pode assumir uma quantidade limitada

54
COMBINAÇÕES RESTRITAS │ UNIDADE III

de valores. Por exemplo, a variável aleatória peso de uma pessoa é uma variável
aleatória contínua, pois é capaz de assumir qualquer valor. Agora, as faces de
um dado definem uma variável discreta, já que pode assumir apenas seis valores
diferentes.

Existem dois parâmetros a serem avaliados em uma variável aleatória: a esperança e


a variância. A esperança, ou média, é um valor numérico aplicado como resumo do
comportamento da variável aleatória. É obtida pela somatória do valor da variável e a
probabilidade relacionada ao valor:

E(x) =∑ xi ∙ pi
i=1
O desvio-padrão da variável aleatória é dado por:

Figura 7. Variavel aleatória.

Fonte: Adaptado de Sven (2016).

Ao estudar a distribuição amostral em que o parâmetro de análise é a média, o


histograma formado pelos resultados obtidos em todas as amostras possíveis se
comporta como na Figura 8:

Figura 8. Análise da média.

Fonte: Adaptado de Sven (2016).

Observe que, quanto maior for o número de elementos da amostra, mais o


histograma se assemelha com a distribuição normal destacada na curva em
laranja. Isso significa que quanto maior for o número de elementos da amostra,
mais próximo o valor estimado é do valor exato, já que cada vez mais amostras
fornecem esse valor. O limite dessa análise seria uma amostra com todos os
elementos da população que resultaria em uma única barra coincidindo com o
valor exato da população.

55
UNIDADE III │ COMBINAÇÕES RESTRITAS

Quando se aumenta o grau de confiança de um estimador, maiores são as


chances de o intervalo de confiança obtido conter o valor exato, já que a
faixa de valores possíveis é maior. Dessa forma, o controle do tamanho do
erro que rejeita um valor verdadeiro por este meio deve ser evitado, uma
vez que é criada uma faixa de valores muito grande.

Considere, por exemplo, uma distribuição amostral em que E(x) = μ e var(x) = σ². A
aproximação da amostra com relação a uma distribuição normal depende do tamanho
da amostra e da distribuição da população original. Em muitos casos, a aproximação
é válida se o número de elementos for maior ou igual a 30, independentemente da
distribuição da população originária.

Se a amostra possuir um comportamento normal, a probabilidade da variável


aleatória poderá ser descrita pela distribuição N(μ;σ²) e os parâmetros amostrais
podem ser estimados pelas expressões:

Figura 9. Amostra por comportamento normal.

Fonte: Adaptado de Sven (2016).

Por isso uma distribuição amostral de médias segue três propriedades matemáticas:

» A média da distribuição amostral é igual à média da população original.

» O desvio-padrão da distribuição amostral é igual a σ⁄√n.

» A forma da distribuição é aproximadamente igual à da distribuição


normal.

Uma das aplicações mais comuns do teorema do limite central é o cálculo da


probabilidade para definir se um determinado evento ocorre em uma distribuição
normal ou quase normal. A probabilidade de um evento ocorrer é obtida por
meio da integral da função de probabilidade. Como normalmente as intergrais
são de difícil solução, é comum que os valores sejam apresentados por meio de
tabelas. No caso da distribuição normal, retira-se a probabilidade apresentada
nas tabelas da integral, compreendida no intervalo (-∞;z). Por exemplo, a
probabilidade de uma variavel aleatória possuir valor menor que x = 3 em uma

56
COMBINAÇÕES RESTRITAS │ UNIDADE III

amostra N(4;10), composta de 50 elementos, é obtida por meio da normalização


dos valores para a variável z:

Figura 10. Variavel Z.

Fonte: Adaptado de Sven (2016).

Então, a probabilidade retirada das tabelas para o valor normalizado é:

P(x < 3) = P(z < -2,23) = 0,0128 = 1,28%

Para o mesmo caso, se desejamos saber a probabilidade de obter um valor entre


4 e 5, temos:

Figura 11. Probabilidade.

Fonte: Adaptado de Sven (2016).

Para calcular a probabilidade, analisaremos abaixo:

Figura 12. Probabilidades.

Fonte: Adaptado de Sven (2016).

P(4 < x < 5) = P(0 < z < 2,23) = P(z < 2,23) - P(z < 0) = 0,987 - 0,5 = 0,487 = 48,7%

Outra aplicação do teorema do limite central é nas distribuições de probabilidade


no estudo de intervalos de confiança e em testes de hipóteses. Os intervalos de
confiança são estimadores de parâmetros que fornecem uma faixa de valores.
Podem, então, representar o valor populacional desse parâmetro. Já os testes

57
UNIDADE III │ COMBINAÇÕES RESTRITAS

de hipótese são estatísticas aplicadas para avaliar uma suposição com relação à
população a partir dos dados amostrais.

Como o teorema destaca que a maior proporção dos valores é disposta nas
proximidades do valor exato, então, ao observar qualquer distribuição
amostral, podemos dizer que a condição de igualdade entre os valores amostral
e populacional está localizada na região próxima ao pico da distribuição. Por
exemplo, ao estudar a distribuição t de Student, que possui o formato mostrado
na Figura 13, sabemos que, se um valor calculado estiver próximo ao pico, ele
estará próximo ao valor exato.

Figura 13. Controles assimétricos.

Fonte: Adaptado de Sven (2016).

Até mesmo em distribuições assimétricas, como a qui-quadrado usada em análises


envolvendo a variação dos valores, os valores que representam a igualdade na
variação dos valores estão distribuídos próximo ao pico, mesmo que ele não esteja
exatamente no centro da distribuição.

Assim, um ponto crítico a ser considerado na avaliação da descontinuidade é o


impacto da retirada do produto em seu mercado, e o quanto isso pode impactar
os cálculos. Para evitar problemas, é preciso que exista um bom canal de
relacionamento e uma campanha de marketing direcionada estrategicamente ao
fim do ciclo de vida do produto.

Nesse sentido, o plano de fim de vida foi criado na fase de projeto detalhado
e atualizado na fase de lançamento do produto. Juntamente a isso, devem
constar, para o planejamento da descontinuidade do produto, as informações
das avaliações reavaliadas no seu ciclo de vida (durante o uso) e as decisões
de portfólio que resultam na tomadade decisão de descontinuar o produto. Ao
descontinuar o produto, pode-se optar por estratégias como a terceirização
do produto, retirá-lo do mercado, reciclá-lo, utilizar parte dele para o
desenvolvimento de outros ou atualizá-lo. Ressaltando que tais decisões são
tomadas a partir do plano de fim de vida do produto, em conjunto com as
informações obtidas durante o uso dele.

58
COMBINAÇÕES RESTRITAS │ UNIDADE III

Quando avaliamos os parâmetros estatísticos de uma população por uma amostra,


os valores obtidos não são exatos, contendo um erro amostral também chamado
de variabilidade amostral. De modo geral, o erro amostral é a diferença entre os
valores amostrais e os valores exatos oriundos da população.

O planejamento da descontinuidade é desenvolvido a partir de informações


relacionadas aos feedbacks de monitoramento do produto e para garantir a
descontinuidade dele, conforme o planejado, é necessário que se realizem atividades
dentro dessa fase. Após o planejamento da descontinuidade, deve-se preparar a
empresa para acompanhar o recebimento do produto.

Assim é responsável por esse passivo ambiental, seja o produto de grande ou


pequeno porte. Bens de consumo duráveis como máquinas e equipamentos devem
ter uma maior atenção, e suas partes devem ser descartadas separadamente, de
acordo com as possiblidades. Nessa atividade, deve-se seguir as do plano do fim
de vida, assim como as premissas já orientadas pelos cálculos.

Relembrando as distribuições amostrais, sabemos que duas amostras


diferentes, retiradas da mesma população, podem resultar em estimativas
erradas. Isso ocorre porque a amostra não contém todos os integrantes da
população. Então, é possível que a amostragem não contemple elementos
que afetam de forma significativa as estimativas.

Além dos erros amostrais, consequência do processo de amostragem, existem


outras fontes de erro, originadas, por exemplo, da escolha de uma função de
probabilidade inadequada, ou erros aleatórios não relacionados diretamente à
amostragem, como a formulação incorreta de questionários. Em uma pesquisa
eleitoral, a amostra pode ser viesada caso ela ocorra apenas em uma região, já que
tal região pode privilegiar um candidato em relação a outro.

O erro amostral pode ser controlado de diferentes formas, entre elas:

» Aumento da amostra: pelo princípio da consistência, quanto maior


o tamanho da amostra, mais próximo da população a amostra
é e, consequentemente, menor o EQM. Um modo de minimizar
esse detalhe é o cálculo da menor dimensão possível da amostra a
partir da determinação da maior margem de erro percentual E0 do
estimador, da confiança desejada α, e do desvio-padrão σ obtido de
uma amostra inicial com no mínimo 30 elementos:

59
UNIDADE III │ COMBINAÇÕES RESTRITAS

Figura 14. Desvio-padrão.

Fonte: Adaptado de Sven (2016).

» Substituição dos estimadores: é possível aplicar um estimador


baseado em uma distribuição diferente, que resulte em uma variação
menor;

» Aumentar o grau de confiança do estimador: ao obter estimadores


intervalares, aumentar a confiança do estimador resulta em uma faixa
maior de valores considerados verdadeiros.

Como já foi dito, os estimadores permitem estimar o valor populacional de um


parâmetro com base em dados amostrais. Além disso, vimos que existem os
estimadores pontuais, que fornecem um valor, chamados de média amostral; e
os estimadores intervalares, denominados intervalos de confiança, que fornecem
uma faixa de possíveis valores para o parâmetro populacional. Para relembrar, o
estimador pontual para a média é dado por:

Figura 15. Médias.

Fonte: Adaptado de Sven (2016).

Mas como chegar aos estimadores intervalares para a média e para a diferença
entre duas médias? Dependendo das condições da amostra avaliada, esses
estimadores são calculados com base nas distribuições normal e t de Student.

Antes de conhecer as estimativas para determinar a média, é válido conhecer os


conceitos de significância e de confiança. A confiança, ou índice de confiança, é
a probabilidade de o valor estimado estar correto. De modo simples, o índice de
confiança determina o tamanho do intervalo no qual existe uma probabilidade de
que o valor populacional esteja presente, considerando que existem valores não
amostrados que provocam pequenas variações na estimativa pontual.

A significância, definida pela letra α, é definida como a probabilidade de erro na


estimativa. Ela define os intervalos que compreendem os casos extraordinários

60
COMBINAÇÕES RESTRITAS │ UNIDADE III

como, por exemplo, de um indivíduo que não foi amostrado e cujo valor é tão
discrepante que afeta de forma significativa o valor da média amostral.

Uma relação entre esses dois conceitos é que a soma da significância e da confiança
deve ser igual a 1 ou 100%. Então, os intervalos definidos para cada um dos termos
devem compreender todo o intervalo de variação do parâmetro avaliado.

Como mostra a Figura 16, podemos dizer, de modo simples, que existem os
intervalos para valores iguais à média, definidos pelo índice de confiança, e os
intervalos de valores diferentes da média, sejam eles maiores ou menores do que
a média. Por esse motivo, a significância é dividida pela metade, uma vez que são
dois intervalos ditos diferentes da média.

Figura 16. Curva de média.

Fonte: Adaptado de Sven (2016).

Para determinar o tamanho dos intervalos de confiança, devemos calcular


os valores críticos da distribuição de probabilidade. Esses valores definem
a probabilidade desejada. Relembrando o conceito de probabilidade, ela é
a área abaixo da função probabilidade definida a partir de -∞. Então, para
saber o valor limite dos intervalos de confiança para a média, basta calcular
os valores que delimitam as probabilidades da significância.

Quando a amostra a ser avaliada segue uma distribuição normal e possui um


número de elementos grande (maior ou igual a 30), ou possui a variância
populacional σ² conhecida, é possível estimar um intervalo de confiança para
a média, aplicando a distribuição normal ou distribuição z. Nesse caso, as
probabilidades definidas pela significância e pelo índice de confiança serão
obtidas com base na variável normalizada z. Para estimar a média em casos
em que a variância σ² (ou o desvio-padrão σ) populacional é conhecida, ou é
predefinida, calculamos a margem de erro por meio da expressão:

61
UNIDADE III │ COMBINAÇÕES RESTRITAS

Figura 17. Margem de erro.

Fonte: Adaptado de Sven (2016).

Para casos em que a variância populacional é desconhecida, porém a amostra


é composta de mais de 30 elementos, podemos substituir o desvio-padrão
populacional pelo amostral, como mostra a expressão:

Figura 18. Desvio-padrão.

Fonte: Adaptado de Sven (2016).

Uma forma de representar o intervalo de confiança da média por meio de uma


expressão é IC(μ,1 - α). Isso quer dizer que, se for informado que é de interesse
o cálculo do IC(μ,0,95), é o mesmo que dizer que desejamos obter o intervalo de
confiança para a média com 95% de confiança, ou 5% de significância.

Exemplo:

Imagine que desejamos obter um intervalo de confiança de 99% para as notas


conquistadas na disciplina de estatística. Para isso, foram amostrados 50 alunos, que
forneceram uma média amostral de 7,5 e desvio-padrão de 2.

Para resolver esse exemplo, primeiro devemos observar os dados da amostra. Nesse
caso, não conhecemos as informações sobre a variância populacional, mas temos
uma amostra com mais de 30 elementos. Então, aplicaremos a estatística:

Figura 19. Amostra de estatistica.

Fonte: Adaptado de Sven (2016).

Para obter o valor de Zcrítico, consultaremos a Tabela 1, buscando a confiança de 99%,


ou a significância α ⁄2 de 0,5% (ou 0,005). Com isso, temos que: Zcrítico = 2,57. De
posse dos valores amostrais da média, do desvio-padrão e do Zcrítico, seguiremos o
procedimento para obter o intervalo de confiança. Primeiro, calcular a margem de erro:
62
COMBINAÇÕES RESTRITAS │ UNIDADE III

Figura 20. Margem de erro.

Fonte: Adaptado de Sven (2016).

O cálculo dos extremos:

» Extremo mínimo = _ - E = 6,78 = x

» Extremo máximo = _ + E = 8,22 = x

E calcular o intervalo de confiança:

6,78 < μ < 8,22 ou IC(μ,0,99) = (6,78;8,22)

Isso implica dizer que, se a distribuição for normal, existe 95% de chance de
o valor da média populacional estar entre 6,78 e 8,22. A informação fornecida
pelo intervalo de confiança também pode ser interpretada como uma nota média
de 7,5, com uma margem de erro de 0,72 para mais ou para menos.

63
CAPÍTULO 3
Aplicações

Caso a amostra seja pequena, isto é, possua menos de 30 elementos, e a variância


populacional não seja conhecida, será aplicada a distribuição t de Student para
obtenção dos valores-limites.

Devido a seu comportamento semelhante, a distribuição t de Student possui as


mesmas propriedades da distribuição normal, diferenciando-se apenas no conceito
do grau de liberdade. A Figura 21 mostra o comportamento da distribuição t de
Student quando comparada à distribuição normal, deixando claro que quanto
maior for o grau de liberdade da amostra, mais próximo é o comportamento da
distribuição com relação à distribuição normal.

Nesse caso, os valores críticos para determinação do tamanho do intervalo de


confiança dependem, além da significância, dos graus de liberdade υ da amostra,
obtidos por meio da expressão:

υ=n–1

Outra forma de representar o valor crítico de uma distribuição t de Student, com


υ graus de liberdade e significância α ⁄2, é: t(υ;α ⁄ 2). Então, t(9;0,01) significa
que se deseja uma distribuição t de Student com significância de 2% e 9 graus de
liberdade.

A expressão abaixo destaca os valores mais usados de significância para os graus


de liberdade até n = 30.

O intervalo de confiança para a média populacional, quando a variância (ou


desvio-padrão) populacional é desconhecida, ou a amostra tem n < 30, é
descrito como:

Extremo mínimo < μ < Extremo máximo ou IC(μ,1 - α) = (Extremo mínimo;


Extremo máximo) = 30

Agora, imagine que desejamos estimar um intervalo de confiança para a


diferença entre duas médias populacionais μ1 e μ2 com base em amostras
obtidas de cada população. De forma simplificada, pode-se representá-lo
como IC(μ1 - μ2,1 - α). Novamente, para o desenvolvimento dessa estimação,
devemos nos perguntar a respeito das características das duas amostras.

64
COMBINAÇÕES RESTRITAS │ UNIDADE III

Se as duas amostras possuírem um comportamento normal e a variância


populacional conhecida, é possível estimar o intervalo de confiança com base
na distribuição normal. Considere que a amostra 1 possua média amostral x1,
variância populacional σ1² e tamanho da amostra n1, e que a amostra 2 seja
definida pela média amostral x2, variância populacional σ2² e tamanho da
amostra n2. A margem de erro dessa estimativa é obtida por:

Figura 21. Erro de estimativa.

Fonte: Adaptado de Sven (2016).

Definida a margem de erro E, podemos definir os extremos superior e inferior do


intervalo de estimativa para a diferença entre as médias por meio das expressões:

Extremo mínimo = (x1 - x2) - E e Extremo máximo = (x1 - x2) + E

O intervalo de confiança para a diferença entre duas médias, quando a variância


(ou desvio--padrão) populacional é conhecida, é calculado como:

Extremo mínimo < μ1 - μ2 < Extremo máximo

Ou

IC(μ1 - μ2,1 - α) = (Extremo mínimo;Extremo máximo)

Deve-se ter cuidado para manter a ordem da diferença ao longo do exercício.


Mudar a ordem dos operadores pode resultar em uma análise errada.

Agora, imagine que não conhecemos as variâncias populacionais das duas


populações-alvo da pesquisa, mas sabemos que elas são iguais. Nesse
caso, podemos calcular o intervalo de confiança da diferença entre as duas
populações, aplicando uma estatística diferente.

Para calcular o intervalo de confiança da diferença entre as amostras em que


a variância populacional é desconhecida, porém são iguais, precisaremos dos
dados referente à média e variância amostrais e do número de elementos de cada
amostra. Conhecendo esses dados, calcularemos um desvio-padrão amostral sp:

65
UNIDADE III │ COMBINAÇÕES RESTRITAS

Figura 22. Desvio-padrão.

Fonte: Adaptado de Sven (2016).

Como são dados amostrais, aplicaremos a distribuição t de Student para cálculo


da margem de erro. Os graus de liberdade aplicados na distribuição são:

υ = n1 + n2 -2

Em análises, é comum avaliar a proporção em que um evento ocorre dentro


de uma população. Por exemplo, ao se avaliar a taxa de emprego, é avaliada a
proporção entre empregados e desempregados em uma população. Em outro
exemplo, como em uma pesquisa eleitoral, os números apresentados para cada
candidato se referem à proporção da população que tem a intenção de votar no
candidato A ou B.

Para avaliação da proporção de um determinado evento em uma população,


devemos considerar que a variável avaliada possui uma distribuição de
Bernoulli. Isso quer dizer que a variável apresenta uma probabilidade de estar
em conformidade com a situação dita como “sucesso”, e a probabilidade restante
é definida como “fracasso”. Vale lembrar sempre que a soma das probabilidades
de sucesso e de fracasso deve totalizar 100% das possibilidades.

Para estimar a proporção populacional, devemos inicialmente definir os valores


dos elementos como:

» x = 1; se sucesso

» x = 0; se fracasso

Então, considere uma população composta de elementos com distribuição


Bernoulli cuja probabilidade de acerto é p e de fracasso q = 1 - p. Por meio
do teorema do limite central, a distribuição poderá ser aproximada a uma
distribuição normal se o número de eventos de sucesso e de fracasso for maior
ou igual a 5, ou seja:

np ≥ 5 e nq = n(1 - p) ≥ 5
66
COMBINAÇÕES RESTRITAS │ UNIDADE III

Se o número de eventos para qualquer um dos casos for menor do que 5, os


estimadores de média e o desvio-padrão serão diferentes e deverão ser obtidos
por algum dos outros métodos (momento ou máxima verossimilhança), aplicando
a distribuição de Bernoulli.

Para estimar o intervalo de confiança para a proporção, inicialmente devemos


avaliar se é possível a aproximação para a distribuição normal conforme a regra
mostrada para o teorema do limite central, ou seja:

np ≥ 5 e nq = n(1 - p) ≥ 5

Validado esse critério, podemos aplicar a distribuição normal como distribuição


de probabilidade usada para calcular o intervalo de confiança. Do mesmo modo
que desenvolvido para o intervalo de confiança da média, temos o intervalo de
confiança delimitado na região central da distribuição normal, com a significância
definindo o tamanho das regiões em que a proporção amostral é diferente da
populacional. Então, o valor crítico usado para calcular o tamanho do intervalo
de confiança é definido como Z(α ⁄2) para um intervalo de confiança IC(p,1 - α).

O cálculo da margem de erro é realizado por meio da estatística:

Figura 23. Margem de erro.

Fonte: Adaptado de Sven (2016).

Calculada a margem de erro, os extremos do intervalo são calculados como:

Extremo mínimo = p̂ - E e Extremo máximo = p̂ + E

O intervalo de confiança para a proporção populacional é descrito como:

Extremo minimo < μ < Extremo maximo

ou

IC(p,1 - α) = (Extremo mínimo; Extremo máximo)

Para determinar o tamanho mínimo da amostra, a fim de que se forneça alguma


informação válida, deve-se primeiro definir a significância α do intervalo que será
construído posteriormente e a margem de erro E máxima desejada.

67
UNIDADE III │ COMBINAÇÕES RESTRITAS

Um teste de hipótese é uma ferramenta para a análise das características da


população a partir de dados amostrais. Esses testes respondem a hipóteses
levantadas com relação à população de modo binário, ou seja, definindo-as como
verdadeiras ou falsas. No entanto, deve-se sempre ter cuidado na conclusão dos
testes, sob o risco de cometer erros do tipo falso positivo ou falso negativo.

Um roteiro deve ser seguido para o desenvolvimento desses testes, considerando: a


definição das variáveis de interesse; a hipótese avaliada; os limites aceitos; e o tipo de
estatística aplicada (devendo esta ser adequada para cada tipo de teste ou variável).

As estatísticas para análise da média são aplicadas quando há um valor


populacional ou a comparação com outra amostra. Esse tipo de teste é
importante para validar afirmações realizadas com base no valor absoluto
obtido para a amostra. Com isso, como levantado na primeira pausa para
refletir sobre a alegação dos alunos quanto à dificuldade da prova por conta
da média, é correto dizer que, mesmo que a nota seja menor numericamente,
ela pode ser igual estatisticamente.

No âmbito estatístico, é possível também identificar se uma amostra é


independente de outra a partir de um teste de hipótese, assim como há a
possibilidade de confirmar se a porcentagem de indivíduos em uma amostra
é igual à de outra. Esse teste é muito comum, por exemplo, em períodos de
eleição, pois permite a definição do percentual de intenções de voto em cada
candidato.

Em relação aos testes de aderência, sabe-se que eles são importantes para definir
se uma amostra possui comportamento semelhante ao de uma distribuição-padrão.
Esses testes são considerados não paramétricos, assim como o teste qui-quadrado,
de grande valia e com diversas aplicações.

68
BINÔMIOS UNIDADE IV

CAPÍTULO 1
Introdução

Ao aplicar a estatística de modo prático, é necessário determinar a média e a


variância utilizando amostras. Para esse tipo de análise, utiliza-se a estatística
inferencial, amplamente aplicada na validação de resultados obtidos quando se
tem amostras. Para entender a importância da estatística inferencial, imagine o
período eleição: durante as pesquisas de intenção de votos, apenas um pequeno
número de eleitores é entrevistado.

Por conta disso, os resultados apresentam uma margem de erro. Isso quer
dizer que, se a pesquisa for feita com todos os eleitores (como ocorre na eleição
propriamente dita), existe uma chance de os resultados estarem dentro daquele
intervalo de valores. Diante desse cenário, qual tipo de teste é aplicado para
comparar as intenções de votos? Por quê?

Por meio dos binômios, a inferencial tem aplicações distintas, divididas em


dois grandes grupos: os testes de hipóteses e a determinação de parâmetros de
estimação.

Ao estudar os parâmetros referentes a uma população, todos os indivíduos


são conhecidos e, por isso, temos certeza dos resultados. Agora, ao estudar o
comportamento de amostras, não é possível determinar com exatidão os resultados.

Nesse caso, a estatística inferencial aplica os testes de hipóteses. Eles estão


associados à confirmação de algum fato sobre a população, com base em uma
informação amostral. Por exemplo, a expressão “tecnicamente empatados”,
usada nas eleições, reflete o resultado de um teste de hipótese com relação à
possibilidade de dois candidatos possuírem a mesma quantidade de eleitores,
quando observados os votos da população total. Essa é apenas uma das
possibilidades da aplicação da estatística inferencial e de seus testes.

69
UNIDADE IV │ BINÔMIOS

Do ponto de vista do estudo da amostra, é necessário entender como determinar


os parâmetros, como a margem de erro dos dados analisados ou o número de
indivíduos a ser pesquisado. Para isso, existem alguns conceitos relacionados
aos testes de hipóteses, como os tipos de erros e as regras de decisão.

Como não são conhecidos todos os indivíduos da população ao realizar um


teste estatístico, é definida uma margem de confiança do teste. Por isso, jamais
considere o valor obtido em uma amostra como exatamente igual ao valor obtido
para a população.

Os testes podem ser definidos como paramétricos e não paramétricos.


Um teste paramétrico supõe um comportamento conhecido da amostra
diante de uma distribuição de probabilidade conhecida, como a
distribuição normal ou qui-quadrado. Já o teste não paramétrico pode
ser usado em qualquer amostra, mas possui um custo matemático
maior em seu desenvolvimento. Por esse motivo, os dados amostrais
são comparados com a distribuição equivalente para a obtenção da
hipótese correta.

Um teste paramétrico tem por vantagem o desenvolvimento mais simples e de


fácil compreensão, inclusive permitindo o estudo de dados não numéricos, porém
deve-se ter cuidado ao usar esse tipo de teste de forma indiscriminada, já que
tendem a reduzir as informações referentes à amostra usada. Por isso, não são
tão eficientes em condições nas quais o teste paramétrico poderia ser usado.

Ao executar um teste, devemos ter em mente que ele possui sempre como resposta
duas possibilidades: verdadeiro ou falso. Esse fator deve estar bem claro, a fim
de que não haja interpretações equivocadas.

Quando se deseja realizar um teste de qualquer tipo, primeiro deve-se levantar


uma suposição, definida como aquilo que se pretende ter como verdadeiro. Com
base nela, são criadas duas hipóteses: uma que avalia sua veracidade (hipótese
nula ou H0) e outra que nega ou rejeita a hipótese nula (hipótese alternativa ou
H1). Então, por definição, uma hipótese estatística é uma suposição levantada
com relação a algum parâmetro de uma variável amostral. Nesse sentido, o teste
de hipótese é o processo aplicado para confirmá-la ou rejeitá-la com base nas
informações amostrais.

Para entender como são propostas as hipóteses, é possível pensar no exemplo


da eleição. Se for de interesse avaliar se um candidato possui o mesmo número

70
BINÔMIOS │ UNIDADE IV

de votos que outro, com base na pesquisa de intenção de votos, as hipóteses


levantadas são:

» H0: o número de votos é igual

» H1: o número de votos é diferente

Nesse caso, ao aplicar o teste correspondente, a resposta a ser dada indica se


hipótese H0 está correta ou não.

Agora, imagine que é de interesse saber, com base na pesquisa de intenção de


votos, se o candidato 1 será eleito no primeiro turno. Para que isso ocorra, sabe-se
que o candidato deverá ter mais da metade dos votos. Perceba agora que estamos
interessados na proporção dos eleitores.

A aplicação do teste envolve uma expressão matemática, cujo resultado deve ser
analisado antes que seja dada a conclusão do problema. Nessa análise da hipótese
H0, é possível que ocorram dois tipos de erros: o tipo I e o tipo II.

O erro de tipo I está relacionado à rejeitação da hipótese H0 quando ela é


verdadeira. É o erro conhecido como o falso negativo. Por exemplo, ao testar a
hipótese de igualdade dos votos, suponha que a hipótese nula H0 (número de
votos igual) seja verdadeira. Então é correto dizer que o número de votos é igual.
Caso a conclusão fornecida seja de que os votos são diferentes, temos um erro do
tipo I. A probabilidade de cometer um desses erros está relacionada ao nível de
confiança ou significância do teste, definida pela letra α.

Já o erro de tipo II se refere à aceitação da hipótese H0 quando ela é falsa.


É conhecido como o falso positivo. Por exemplo, considere que a hipótese
alternativa H1 (número de votos diferente) seja verdadeira no caso da igualdade
de votos. Então, é correto dizer que o número de votos é diferente. Caso a
conclusão fornecida seja de que os votos são iguais, temos um erro do tipo II. A
probabilidade de cometer um erro desse tipo está relacionada ao poder do teste,
representado pela letra β.

As relações entre os tipos de erros e a chance de cometê-los.

Tabela 1. Exemplo de hipóteses.

Decisão dada (anãlise dos resultados)


Decisão obtida (calculada) Aceitar H0 Rejeitar H0
H0 verdadeira Correto (1 - α) Erro tipo I (α)
H0 falsa Erro tipo II (β) Correto (1 - β)
Fonte: próprio autor, 2020.

71
UNIDADE IV │ BINÔMIOS

Para fornecer uma resposta referente à população com base em um teste de


hipótese, é necessário definir uma margem de valores assumida como verdadeira.
No exemplo da campanha eleitoral, essa margem se apresenta como a faixa de
valores de intenção de votos para cada candidato. Lembre-se de que dentro dessa
margem todos os valores são estatisticamente iguais, enquanto os valores fora do
intervalo são considerados diferentes.

Dito isso, podemos definir a região crítica como o intervalo de valores no qual a
variável estudada pelo teste de hipótese tem a hipótese H0 rejeitada. Para obter a
região crítica a ser avaliada no teste, analisa-se o índice de significância requerida
do tipo de teste e da distribuição usada para comparação.

Ao defini-la, a regra de decisão é realizada dispondo o valor a ser testado. Ele


é obtido por meio de uma estatística dentro do intervalo de valores possíveis.
Assim, é possível dizer que a hipótese H0 é rejeitada quando o valor está dentro
dessa região crítica. Caso contrário, H0 é aceita. Suponha que, na pesquisa
eleitoral, o candidato 1 possua a intenção de votos de 25 pontos, com uma
margem de erro de 2 pontos para mais ou para menos. Isso quer dizer que os
valores compreendidos entre 23 pontos e 27 pontos são estaticamente iguais a
25 pontos. Nesse caso, a região crítica é definida nos valores menores que 23 e
maiores que 27.

Para desenvolver um teste de hipótese (ou de significância), deve-se seguir uma


sequência de ações. Primeiramente, é preciso identificar a variável avaliada, a qual
pode estar relacionada:

» ao valor dos indivíduos da amostra, referindo-se a uma média ou um


valor fixo;

» à variação do valor, vinculada à variância ou ao desvio-padrão dos


valores;

» à proporção dos indivíduos quando agrupados.

A seguir, deve-se observar se o teste é ou não paramétrico e definir as hipóteses


nula e alternativa. Ao defini-las, é necessário se atentar ao modo como isso é
feito, para que uma não se sobreponha a outra. Por exemplo, se uma hipótese
tiver como resultado a igualdade, a outra deve ter como resultado o fato de ser
diferente. Se uma for um teste de maior, o outro deve ser um teste de menor ou
igual, e assim por diante.

Logo, é preciso fixar um nível de significância aos testes. Isso depende do tipo
de teste e da confiança esperada. O mais comum é que se apliquem os valores
1%, 5% e 10%.

72
BINÔMIOS │ UNIDADE IV

Assim, determina-se a região crítica do teste. Para isso, são usadas as tabelas
de distribuição de probabilidade compatíveis, tendo em mente o teste e a
significância. Os cálculos estatísticos podem, então, ser realizados. Neste
ponto, também se observa que cada tipo de teste possui uma metodologia para
obter um valor: alguns possuem apenas uma expressão a ser resolvida, e outros
necessitam de uma manipulação preliminar da amostra. Por fim, é possível
comparar o valor obtido pela estatística com as regiões críticas definidas, de
modo a aceitar ou rejeitar a hipótese nula.

Cada parâmetro relacionado às variáveis tem uma estatística envolvida.


Os testes paramétricos têm por característica aplicar uma distribuição de
probabilidade para obter a região crítica do teste. Desse modo, é válido que
se tenha uma tabela com os valores de probabilidade de cada distribuição.

Quando é de interesse analisar o valor da variável aleatória da amostra (ou seja,


a média), é realizado o teste de hipótese para média. Nesse caso, a hipótese
levantada deve comparar o valor da média amostral (x) à média de uma
população (μ0). A média da população é um valor certo, sendo representada
por um número, e não por uma faixa de valores.

Para realizar esse teste, a determinação da região crítica pode ser realizada por
meio de duas distribuições de probabilidade. Quando o número de indivíduos for
menor que 30, a distribuição a ser usada é a t de Student. Agora, se a amostra
contiver mais de 30 indivíduos, utiliza-se a distribuição normal Z.

Uma vez que são conhecidas as distribuições usadas, o tamanho e a disposição


da região crítica são definidos conforme a hipótese. Para facilitar a compreensão,
é possível distinguir o intervalo da distribuição em três regiões: valores iguais,
compreendida no meio da distribuição; valor menor e valor maior. Tendo essa
divisão em mente, basta demarcá-las de acordo com o teste escolhido.

Gráfico 5. Testes de Intervalos.

Fonte: Adaptado de Sven (2016).

73
UNIDADE IV │ BINÔMIOS

A região crítica deve possuir o tamanho da significância do teste, e os limites


numéricos aplicados nas regiões são obtidos a partir da consulta a tabelas de
probabilidade. Por exemplo, se o teste envolver a distribuição normal, deve-se
buscar o valor Z0 = Z(α’). Caso seja aplicada a distribuição t de Student, deve-se
aplicar o valor de t0 = t(α’,n - 1) em que n - 1 são os graus de liberdade v do teste.

Dando destaque à aplicação da estatística, o teste de média é realizado por meio do


cálculo do valor Z ou t.

Para compreender, imagine que uma sala possui 20 alunos, cuja média e
desvio-padrão das notas são x = 6,2 e s = 0,5, respectivamente. A diretora da
escola deseja saber se essa sala possui uma média de notas igual ao restante da
escola, a qual equivale a μ = 6,5 e segue uma distribuição normal.

Seguindo o procedimento estabelecido, é definido que a variável estudada é a


média. O teste deve ser paramétrico, já que é informado que as notas seguem
um comportamento normal. Por conta do tamanho da amostra, aplica-se a
distribuição t de Student. O nível de significância é definido como α = 5% e a
hipótese testada como:

» H0: x = μ0

» H1: x ≠ μ0

Para determinar a região crítica desse teste, como pretende-se testar a igualdade, H0
está na região central, enquanto H1 está nas caudas, por isso é considerado um teste
bilateral.

Figura 24. Regiões Críticas de médias.

Fonte: Adaptado de Sven (2016).

Os limites das regiões são obtidos conforme a distribuição t de Student, com as


expressões:

» t0 = t(α’,n - 1) = t(0,025; 19) = -2,093

74
BINÔMIOS │ UNIDADE IV

» t0 = t(α’,n - 1) = t(0,975; 19) = 2,093

Comparando o valor encontrado com as regiões críticas definidas, observa-se


que o valor de t está dentro da região definida por H1. Então, é possível dizer
que a média das notas da turma estudada não é igual à média da escola.

Considere agora que uma família tem por intenção reduzir seu gasto financeiro,
que era de R$ 1.000,00 ao mês. Após seis meses, eles resolvem avaliar se
conseguiram atingir esse objetivo. Para isso, calculam a média e o desvio-padrão
dos gastos dos últimos meses, obtendo, respectivamente, R$ 900,00 e R$ 100,00.
Admitindo que os gastos sigam uma distribuição normal e a significância de 5%, é
possível testar a hipótese, como:

» H0: x < μ0

» H1: x ≥ μ0

Nesse caso, as regiões críticas podem ser observadas abaixo:

Figura 25. Regiões críticas da redução de gasto familiar.

Fonte: Adaptado de Sven (2016).

Como o valor calculado está dentro da região definida para H1, então a família não
conseguiu reduzir os gastos mensais.

Ambos os exemplos aplicam a distribuição t de Student para obter a região crítica.


No caso da distribuição normal, o processo é o mesmo: é preciso encontrar o
valor da distribuição cuja probabilidade é aquela indicada pela sensibilidade
do problema. Em alguns casos, a tabela é dada com relação ao valor de Z. Para
aplicar esse tipo de tabela, deve-se avaliar o valor da significância, que é obtido
em linhas e colunas.

75
CAPÍTULO 2
Coeficientes binomiais

O teste para média não é indicado quando o interesse é analisar a média de duas
amostras. Isso ocorre, pois são analisados dois dados amostrais, e ambos possuem
um nível de significância que reflete em um intervalo de valores válidos.

Como ainda o objeto de estudo é a média dos valores, as regiões críticas


devem ser obtidas por meio da distribuição t de Student. No teste de
comparação, as hipóteses podem ser levantadas sob dois pontos de vista
diferentes, porém com a mesma conclusão. Por exemplo, caso se deseje
saber se as médias amostrais são iguais, pode-se definir a hipótese nula
como:

H = x1 = x 2

ou

H0: = x1 - x 2 = 0.

E essa ideia pode ser estendida às demais comparações.

Para realizar a estatística do teste, é necessário saber se a variância (ou o desvio-padrão)


das populações das quais as amostras foram retiradas são iguais ou diferentes. Caso
sejam iguais, as funções devem ser presentadas por um conjunto natural de valores
maiores que zero (o), desta forma o conjunto se torna natural e real.

No caso da distribuição t de Student, o grau de liberdade é a soma dos graus de


cada uma das amostras avaliadas. Se n1 e n2 são o número de elementos das
amostras 1 e 2, o grau de liberdade é dado por:

v = n1 + n2 – 2

Imagine que é de interesse do Ministério da Educação identificar se houve


melhora na educação do país de um ano para o outro. Dessa forma, ele avalia
a nota de uma escola nos dois anos de interesse. No primeiro ano, foram
avaliados 20 alunos que atingiram média 7 e desvio-padrão 1. Já no ano
seguinte, 30 alunos que atingiram média 8 e desvio-padrão 1 fizeram parte do
estudo. Considerando que a escola é apenas uma amostra de todas as escolas
do país e que a variância das notas foi diferente, como é possível confirmar se
houve melhora?

76
BINÔMIOS │ UNIDADE IV

Nesse caso, admite-se que a distribuição das notas segue uma distribuição normal
e que a significância aplicada é de 5%.

Figura 26. Distribuição normal.

Fonte: Adaptado de Sven (2016).

Antes de iniciar os testes de hipóteses, devemos ter conhecimento sobre a


dependência ou não das amostras. Esse teste é realizado por meio do t pareado
e é empregado para validar a melhora nos resultados ao se aplicar algo novo
em alguma situação. Por exemplo, ao avaliar um novo remédio, são criados dois
grupos de estudos: um tomando o remédio e outro tomando um placebo. Ao
término dos ensaios, os resultados obtidos em ambos os grupos são confrontados
por meio de um teste de dependência. Se o resultado mostrar que existe uma
relação entre os grupos, significa que o remédio não faz efeito. Caso contrário, o
remédio surte algum efeito.

Considere duas turmas compostas por oito alunos cada, em que foi aplicada
uma nova metodologia de ensino. É de interesse saber se a mudança afeta de
forma igual ambas as turmas. Adotando a significância de 5% e uma distribuição
normal, ao observar esse problema, pode-se dizer que, se o teste indicar que
a média das diferenças entre os elementos de cada amostra é igual à zero, a
nova metodologia afeta de forma igual as duas turmas, seja de forma positiva,
negativa ou nula. Então, calculando as diferenças dos valores apresentados na
Tabela 2, obtém-se:

Tabela 2. Diferenças de valores.

Turma 1 Turma 2 D
5,5 4 1,5
6 6,5 - 0,5
6,5 7 - 0,5
7 7,5 - 0,5
7,5 7,5 0
7,5 7 0,5
8 8 0
9 8,5 0,5
Fonte: próprio autor, 2020.

77
UNIDADE IV │ BINÔMIOS

Assim, a média e o desvio-padrão da amostra D são, respectivamente, x D = 0,125 e


sD = 0,6943.

Como a avaliação envolve o mesmo impacto nas duas turmas, então, é de interesse
que a diferença seja nula.

Logo:

» H0 : μD = 0

» 1 : μD ≠ 0

Figura 27. Curva de avaliação.

Fonte: Adaptado de Sven (2016).

O teste de proporção é usado para saber se a amostra retirada representa uma


mesma proporção quando comparada a outra amostra. É usado, por exemplo,
para saber sobre a intenção de votos de uma campanha. Perceba que não se
tem o interesse em saber o número de eleitores, mas qual é a proporção ou
a porcentagem dos indivíduos. Ele é usado também para avaliar a eficácia de
testes em populações diferentes. Assim, sabendo a proporção dos resultados
desejados, é possível comparar se a taxa de eficácia foi atingida.

Para tal, aplica-se a distribuição normal Z. Para realizar o cálculo, primeiramente


define-se se o teste deve comparar a proporção de uma amostra com um valor-padrão
ou de duas amostras. Para avaliar a hipótese de proporção de uma amostra com um
padrão, aplica-se a estatística:

Figura 28. Amostra padrão.

Fonte: Adaptado de Sven (2016).

78
BINÔMIOS │ UNIDADE IV

Em que p é a proporção da amostra ou frequência relativa; p0 é o valor a ser


comparado; q0 é a proporção excluída, ou seja, q0 = 1 - p0; e n é o número de
indivíduos da amostra.

Por exemplo, é de interesse saber se a proporção entre machos e fêmeas de coelhos


selvagens é de 50%. Para isso, foram observados 297 nascimentos, sendo 167
fêmeas.

Aplicando a significância de 10%, é possível determinar se a proporção entre


machos e fêmeas é de 1:1.

Para isso, inicialmente, propõe-se a hipótese:

H0 : p = 0,5 : p ≠ 0,5

A partir disso, sabe-se que o teste é bilateral. Então, devem ser obtidos os limites da
região crítica como:

» z0 = Z(α’) = Z(0,05) = -1,64

» z0 = Z(α’) = Z(0,975; 7) = 1,64

Agora, suponha que é preciso avaliar a proporção de alunos aprovados em


duas escolas. Para isso, na escola 1, são escolhidos 50 alunos dos quais 30
foram aprovados. Já na escola 2, a proporção é de 16 aprovados para 25 alunos.
Adotando a significância de 10%, é possível analisar se a escola 2 tem um índice
de aprovação maior que a escola 1.

Esse problema pode ser resolvido partindo do cálculo dos parâmetros referentes a
cada escola:

p = 30

1:50x= 0,6

q1 = 1 - 0,6 = 0,4

p = 16

2 = 25

p= 0,64

q2 = 1 - 0,64 = 0,36

79
UNIDADE IV │ BINÔMIOS

A proposta à hipótese é equivalente a:

H0 : p2 > p1

1 : p2 ≤ p1

Assim como no teste com duas médias amostrais, deve-se aplicar nas estatísticas
os valores na mesma ordem da hipótese. Caso não se preocupe com esse detalhe,
é necessária uma análise informal dos dados (isso significa supor que se o valor
amostral é maior, o valor da população pode ser apenas maior ou igual). Por conta
do teste, a região crítica é unilateral, resultando em um valor limite de:

z0 = Z(α’) = Z(0,90) = 1,28

Os testes não paramétricos são métodos de análise de hipóteses amplamente


utilizados nos estudos estatísticos por não estarem vinculados ao comportamento
de uma distribuição normal, tanto do ponto de vista da população quanto
da amostra. Desse modo, se a amostra for muito pequena ou não seguir uma
distribuição normal, o teste mais indicado é um não paramétrico. Existem
diversos tipos de testes não paramétricos, cada qual mais indicado para algum
tipo específico de análise, o que ocorre justamente por conta da perda de
informações.

Os testes de aderência (ou de forma) são usados quando o interesse é confirmar


que uma amostra possui o comportamento de alguma distribuição de probabilidade
conhecida, como, por exemplo, a distribuição normal. Entre os testes de aderência
utilizados, estão: o qui-quadrado, o de Kolmogorov-Smirnov (ou K-S), o de
Anderson-Darling (AD) e o de Filliben.

O teste de K-S se baseia na máxima diferença entre as funções de probabilidade


acumuladas, seja amostral ou teórica. Para obter a função amostral, os elementos
devem ser dispostos em ordem crescente antes que a frequência acumulada seja
calculada. Considerando que cada elemento da amostra tenha uma frequência
de 1⁄N, a frequência acumulada é dada pela somatória das frequências entre o
primeiro valor e o valor avaliado.

Já a distribuição teórica é dada pela probabilidade da distribuição de interesse,


com os valores normalizados conforme a distribuição.

O teste qui-quadrado é usado para avaliar a aderência de duas


distribuições amostrais a partir do estudo das proporções apresentadas
em cada distribuição. Por conta disso, ele pode ser usado para inúmeras

80
BINÔMIOS │ UNIDADE IV

aplicações, como identificar se a proporção (ou frequência) de um


dado evento varia, ou se uma amostra segue o comportamento de
uma determinada distribuição. Assim, é correto dizer que este teste é
essencialmente o estudo dos desvios entre as proporções apresentadas
por duas distribuições.

Para aplicar o teste qui-quadrado, os dados devem estar agrupados fornecendo


informações sobre a frequência (número) de cada evento. É importante que a
amostra possua um número grande de grupos ou de indivíduos dentro de cada
grupo (ao menos cinco observações). Caso contrário, podem ocorrer erros de
continuidade da amostra, sendo necessária uma correção, também conhecida
como correção de Yates.

81
CAPÍTULO 3
Binômio de Newton

O conceito de força é muito mais amplo do que se imagina. Nesse sentido, o grande
objetivo da engenharia é construir estruturas cada vez mais resistentes para que
elas resistam à aplicação de grandes cargas.

A palavra força é constantemente utilizada em diferentes situações do dia a dia.


Assim, surgem algumas dúvidas: o que é força? É o que um aluno de academia
coloca em um haltere? É o que se faz ao se empurrar um carro? É o que ocorre
quando uma pessoa é arremessada através do para-brisa do carro, quando
acontece uma batida? Em todos esses casos, há força.

Por volta do século XVII, o físico e matemático Isaac Newton conseguiu


correlacionar tudo que se movia e criar conceitos que foram capazes de explicar
os movimentos de forma plausível.

Para entender as ideias de Newton, primeiro, é preciso definir alguns conceitos,


como massa e aceleração. Massa é uma característica intrínseca a um objeto
ou corpo, que depende, essencialmente, da quantidade e do tipo de matéria
presente neles. Há um ditado popular que questiona: quem pesa mais: um quilo
de algodão ou um quilo de aço? Os dois elementos possuem a mesma massa,
porém, é evidente que o volume do algodão é muito maior do que o do aço.

A massa de um corpo pode ser associada à dificuldade de movê-lo, ou seja, quanto


maior é a massa, maior é a dificuldade de movimento; consequentemente, quanto
menor é a massa, menor é a dificuldade de movimento.

O conceito de força é, portanto, algo intuitivo e presenciado em diversas situações


cotidianas. Sempre que é necessário mover, deformar, acelerar, parar, dentre outras
ações, exerce-se uma força no objeto em questão para que seja possível alterar
o estado inicial dele. Devido a suas atribuições, o conceito de força é estudado
amplamente e calculado minuciosamente para que uma estrutura não sofra, de
modo demasiado, os efeitos da força.

Seja z = f(x, y) uma função de duas variáveis reais. As derivadas parciais de primeira
ordem de f em relação a x e a y são as funções fx e fy dadas por:

82
BINÔMIOS │ UNIDADE IV

Figura 29. Ordem 1.

Fonte: Adaptado de Sven (2016).

Notações

Se z = f(x, y), temos as seguintes notações para derivadas parciais de primeira


ordem em relação a x:

Figura 30. Ordem 2.

Fonte: Adaptado de Sven (2016).

Analogamente:

Figura 31. Odem 3.

Fonte: Adaptado de Sven (2016).

Assim como aconteceu nos cálculos de derivadas de funções de uma única


variável, não precisamos usar a definição sempre que tivermos interessados
em obter a derivada de uma função de duas variáveis. Podemos usar as regras
de derivação já conhecidas, seguindo os seguintes critérios para obtenção das
derivadas parciais:

» Para determinar fx , tratamos y como uma constante e derivamos a


função em relação a x.

» Para determinar fy , tratamos x como uma constante e derivamos a


função em relação a y.

Desenvolvendo o produto notável indicado e multiplicando o resultado por y,


realizando a multiplicação do binômio (x + h) por –3 e fazendo a regra de sinais
no último conjunto de termos, temos:

83
UNIDADE IV │ BINÔMIOS

Figura 32. Ordem 4.

Fonte: Adaptado de Sven (2016).

Efetuando as simplificações dos termos semelhantes e de sinais opostos, fatorando o


numerador e simplificando com o denominador, temos a resposta dada por:

Figura 33. Ordem 5.

Fonte: Adaptado de Sven (2016).

Quando determinamos a derivada de uma função y = f(x), estamos obtendo


a inclinação ou o coeficiente angular da reta tangente à curva no ponto de
abscissa x qualquer. Vamos estender essa teoria para o caso de funções de duas
variáveis e iremos perceber que os resultados das derivadas parciais possuem
o mesmo significado daquele que se refere a uma função de uma variável. A
mesma analogia com funções de uma variável vai se apresentar na obtenção das
derivadas parciais de ordem superior, que são derivadas de derivadas parciais.

Diferente das distribuições normal e t de Student, a qui-quadrado é assimétrica,


resultando em dois limites distintos para as regiões críticas em cada cauda da
distribuição. Então, para a hipótese de igualdade levantada, caso o valor de
qui-quadrado seja maior que o tabelado, rejeita-se a hipótese nula. Do contrário,
H0 é verdadeira.

Para entender como se aplica o teste qui-quadrado, pense na análise para saber se
um dado é viciado. Para isso, imagine que ele é jogado 100 vezes e que é contado
o número de vezes que cada face é sorteada. Ao jogar um dado, é esperado que o
número de vezes que cada face é sorteada seja igual, ou seja:

100 = 16,667
6

Como o valor calculado é menor que o tabelado, pode-se dizer que a distribuição
apresentada pelas jogadas do dado mostra que ele não está viciado, pois as
proporções são iguais.

84
BINÔMIOS │ UNIDADE IV

Considere agora que há interesse em confirmar que uma amostra possui


um comportamento normal. Para isso, é necessário buscar as proporções de
cada agrupamento, caso seja uma distribuição normal. Os valores devem ser
normalizados (assim como ocorre no teste K-S).

Observe que, nesse caso, há a presença de alguns conceitos para o cálculo do teste
qui-quadrado. O primeiro é o caso dos valores normalizados, obtidos por meio da
expressão de normalização dos valores para a distribuição normal, já que essa é a
distribuição-alvo do teste. O segundo é a frequência esperada.

Ela é obtida a partir da consulta do valor da distribuição acumulativa de cada


valor normalizado. Assim, subtraem-se as probabilidades de cada limite do
intervalo, multiplicando-as pelo número de elementos da amostra. Além disso,
como existem grupos com frequência menor que cinco, foi aplicada a correção
de Yates, feita com o cálculo do termo d2 , que agora deve ser calculado como:

(|Fe - Fo| - 0,5)2


Fe

Feito isso, o teste é executado normalmente. Como resultado para esse exemplo,
tem-se que a distribuição não é normal, já que:

χ2 (0,05;4) = 9,48

Outra aplicação do teste qui-quadrado está na análise da contingência amostral.


A contingência é aplicada ao investigar a existência de independência entre duas
variáveis dentro de uma mesma amostra. É aplicável, por exemplo, em pesquisas
sobre as escolhas realizadas entre homens e mulheres.

Considere que dentro de uma empresa foi realizada uma pesquisa de


modo a identificar o nível de satisfação dos funcionários. Para isso, foram
definidos três níveis de satisfação. Ao avaliar os resultados entre homens
e mulheres, deseja-se saber se a proporção entre os indicadores de
satisfação é igual entre eles. Os dados obtidos podem ser apresentados
conforme suas composições, seguindo o exemplo da satisfação dos
funcionários. Observe que para esse tipo de problema, é utilizada uma
tabela 2x2, em que o cruzamento de uma linha e de uma coluna destaca
a característica da amostra (por exemplo, mulher satisfeita).

85
UNIDADE IV │ BINÔMIOS

Generalizações
Sabe-se que para responder à pergunta apresentada na hipótese, é necessário
definir um grau de significância aos testes, além do tipo de teste e estatística a ser
aplicada. O modo no qual essas duas informações são utilizadas para a obtenção
da resposta define as duas principais abordagens aplicadas na interpretação dos
resultados obtidos nos testes de hipóteses. São elas: o p-valor e a região crítica.

Durante os testes de hipóteses, sempre são necessários dois valores referentes à


estatística: um valor calculado, ou observado, e um valor tabelado ou esperado,
obtido por meio da consulta a tabelas de distribuição de probabilidade, de acordo
com a significância. Além disso, quando necessário, é preciso delimitar também
os graus de liberdade do problema. Conforme a hipótese testada, são definidas as
regiões críticas, cujos limites são os valores esperados. Assim, localiza-se o valor
calculado dentro do intervalo de valores e identifica-se se está contido na região
referente à hipótese nula ou à alternativa.

Figura 34. Hipoteses e alternativa.

Fonte: Adaptado de Sven (2016).

Nesse caso, em (a), observa-se que o valor calculado está disposto dentro da região
definida para a hipótese alternativa, ou seja, a hipótese nula é rejeitada. O inverso
ocorre em (b), pois o valor calculado está dentro da região da hipótese nula. Esse
método é de simples aplicação no desenvolvimento dos problemas de forma
manual, ou sem o uso de softwares estatísticos. Por sua vez, o método que envolve
o p-valor, mais utilizado com softwares, é um indicador de nível descritivo, isto é,
avalia a significância da amostra observada. De modo mais simples, o p-valor é o
menor valor no qual se rejeita a hipótese nula.

86
BINÔMIOS │ UNIDADE IV

Considere, por exemplo, que seja necessário identificar o valor calculado para
um teste de hipótese de média t = 1,3, e que esse teste possua v = 10. Para
obter o p-valor, deve-se aplicar as duas informações na tabela t de Student para
encontrar a significância pela qual estão relacionados (no caso, o mais próximo é
0,1). Ou seja, o p-valor é a probabilidade, sendo:

(P(t = 1,3;v = 10) = 0,1)

Agora, a interpretação dos dados é feita ao avaliar as significâncias calculada e


desejada, o que pode ocorrer de forma semelhante ao aplicado nas regiões críticas.

Figura 35. Interpretação de valores.

Fonte: Adaptado de Sven (2016).

Em muitos casos, as variáveis de duas amostras podem apresentar algum


tipo de relação, seja ela causal ou não. Essa relação pode representar
uma associação ou dependência entre as variáveis. Por exemplo, a nota
alcançada por um aluno em uma avaliação está relacionada ao tempo
gasto no estudo. Desse modo, alterando o tempo gasto estudando, a nota
da prova também pode ser alterada de forma dependente.

Por definição, a correlação é uma medida de associação entre os valores


obtidos pelas variáveis de duas amostras. Com isso, é possível mensurar o
grau de dependência dos valores obtidos entre ambas as amostras. Por meio
da correlação, é possível, por exemplo, identificar se uma característica afeta o
resultado obtido em algum ensaio.

Para mensurar a relação entre duas amostras, é avaliado o coeficiente de Pearson


(r) ou coeficiente de correlação linear. Esse indicador permite definir o quão
relacionadas estão as amostras, além de apontar se essa relação é positiva ou
negativa.
87
UNIDADE IV │ BINÔMIOS

Inicialmente, avalia-se o comportamento entre as amostras por meio de um gráfico


de dispersão, que destaca os pares de valores das amostras. De modo simples,
considerando que as amostras se relacionam como uma função, o gráfico de
dispersão é o gráfico do comportamento.

Observando o comportamento dos pares de pontos, percebe-se que existe uma


relação entre a variação do valor de A e de B, destacada pela linha pontilhada.
Esse comportamento é indício de que existe uma correlação entre A e B. Essa
correlação é positiva, já que o aumento em uma variável promove o aumento da
segunda.

Agora, avaliando uma outra situação com o par de amostras, percebe-se que
também existe uma tendência na variação dos valores, porém ela é inversa, já que
o aumento no valor de uma delas resulta na redução do valor da outra. Quando
isso ocorre, é dito que a correlação é negativa.

Dois conceitos fundamentais do cálculo – limite e derivada – foram estudados para


funções de várias variáveis, dando ênfase no estudo de funções de duas variáveis.
Vimos inicialmente uma situação problema que exigiu que fossem determinadas
taxas de variação do índice Humidex em determinadas direções.

Depois, de maneira sucinta, determinamos limites de funções de duas variáveis,


usando as propriedades operatórias dos limites, a propriedade da substituição
direta e eliminação de indeterminações. Conforme foi questionado na primeira
“Pausa para refletir”, para calcular o limite de uma função f(x, y, z) contínua,
basta fazer uso da propriedade da substituição direta, ou seja, lim f(x, y, z) = f(x ,
y , z ), desde que não resulte em uma indeterminação e se (1x0, y0, z0) este for o
caso, deve-se eliminar a indeterminação com álgebra.

Em seguida, fomos apresentados ao conceito de derivadas parciais fx e fy, que


representam, geometricamente, as inclinações das retas tangentes à superfície
f(x, y) nas direções de planos paralelos aos planos xz e yz, respectivamente. Isso
responde à pergunta norteadora do capítulo e como foi comentado lá, será de
grande importância para analisarmos as aplicações de derivadas parciais.

Como são funções, as derivadas parciais podem ser derivadas novamente em


relação a uma variável, o que origina as derivadas parciais de ordem superior,
que, assim como ocorreu para funções de uma variável, mais precisamente, as de
segunda ordem, serão aplicadas para encontrar máximo e mínimo de funções de
duas variáveis.

88
BINÔMIOS │ UNIDADE IV

Aplicações
Saber e ter segurança para fazer cálculos, gerir os negócios e tomar decisões é
essencial e demanda conhecimento, experiência e interesse. Por essa razão,
devemos observar os acontecimentos, porque, na era da informação, o que
acontece em qualquer local do globo terrestre pode atingir a todos. Esse é o efeito
dominó da globalização. Um bom exemplo desse fato para o Brasil é o setor de
agronegócios. Se houver uma queda de produção acentuada de grãos nos Estados
Unidos, a tendência é subir o preço dos grãos no mercado internacional.

A era da informação pode ser considerada a origem de novos tempos e concepções


no mundo dos negócios. Enquanto a economia é afetada pelo desenvolvimento das
maiores economias mundiais, a contabilidade está em um processo de padronização
mundial por meio da governança corporativa. Nesse contexto, a matemática é um
instrumento essencial para a alavancagem financeira dentro das organizações.

A economia é a ciência das expectativas e probabilidades. Para isso, são utilizadas


as teorias econômicas existentes, o histórico do passado, como os indícios
ocorridos para a queda da bolsa de valores nos anos 20 do século XX; indicadores
econômicos, como inflação, dados da balança comercial; as variações do Produto
Interno Bruto (PIB); entre outros indicadores.

As previsões econômicas sobre inflação, globalização e os modelos de governo


adotados pelas maiores potências econômicas mundiais são modeladas de acordo
com as teorias econômicas vigentes. No entanto, se as previsões se concretizarão, só
o tempo poderá responder.

Como dito, um dos principais objetivos do teste é avaliar se existe diferença


entre a média de três ou mais tratamentos. Para responder a suposição inicial
(que as médias são iguais), avaliaremos se o valor f obtido pela estatística é
maior do que o valor tabelado ftab = f(α; v1; v2), onde v1 é o grau de liberdade
do numerador (k - 1), enquanto v2 é o grau de liberdade do denominador
(N - k). Caso isso ocorra, a hipótese nula é rejeitada, ou seja, existe ao menos
uma amostra com média diferente.

Para nosso exemplo, considere uma significância de 5%, consultando a tabela F de


Fisher para ftab = f(0,05; 3; 8) = 8,845. Assim, tem-se que as médias são iguais,
ou seja, as vendas dos quatro bolos são iguais independentemente da hora do dia.

Isso quer dizer que as amostras possuem comportamento semelhante, ou seja, o


valor médio e a variação entre os valores são parecidos – lembre-se de que são

89
UNIDADE IV │ BINÔMIOS

parecidos porque as informações que temos são amostrais. Então, estendendo


a análise para as distribuições amostrais, podemos ver que, no caso da hipótese
nula do teste dever ser aceita, como forma de controle para as funções reais e dos
conjuntos naturais que fazem parte.

O teste de Tukey é aplicado para comparação de médias, observando


diretamente os valores médios e seus intervalos de confiança. Ele é um
teste exato de comparação dos valores médios aos pares, avaliando a
diferença mínima entre todas os pares de amostras possíveis de serem
obtidos. Ele é amplamente utilizado na estatística, pois permite a avaliação
da comparação sem a perda de confiança. Com base nessa diferença
mínima entre os pares, o teste de Tukey pode ordenar as médias conforme
seus valores.

Como é um teste para validar a igualdade de valores entre tratamentos, ele possui
diversas aplicações em vários ramos de pesquisa. Por exemplo, o teste pode
ser usado para avaliar a qualidade de materiais desenvolvidos com técnicas ou
matérias-primas diferentes. Imagine que desejamos saber se uma liga metálica
apresenta o mesmo comportamento em diferentes condições. Podemos definir
tipos de ensaios diferentes, aplicando condições diferentes, como, por exemplo,
aplicar três tipos de ensaios com três amostras de material com geometrias
diferentes. Se o teste indicar que ao menos um valor obtido é diferente, podemos
dizer que existe diferença no comportamento do material conforme a geometria,
ou que os ensaios medem características diferentes.

A engenharia de manutenção permite identificar se a mudança em práticas


aplicadas na indústria resulta em consequências semelhantes. Por exemplo, se ao
aplicar técnicas diferentes de partidas, em motores elétricos de tipos diferentes,
resultar em desgastes semelhantes, podemos, então, escolher o modo de partida
mais fácil ou barato de ser implementado.

Podemos citar uma infinidade de aplicações para binômios, mas perceba que o foco
do teste é avaliar se amostras submetidas a tratamentos diferentes resultam em
valores médios iguais ou diferentes.

A análise de componentes principais (PCA) é uma técnica de estatística


multivariada de grande aplicação na área da análise exploratória de dados,
empregada em diversos setores de pesquisa. Ela é uma ferramenta que permite
reduzir o número de informações necessárias, condensando as variáveis em
grupos, por meio de correlação entre elas.

90
BINÔMIOS │ UNIDADE IV

Para isso, a PCA substitui o conjunto de variáveis original por um novo conjunto,
composto de variáveis não correlacionadas, obtidas por meio da combinação
linear das variáveis originais.

Essa transformação de variáveis busca fornecer um conjunto de dados que


promova a maior variação entre os elementos, com a menor correlação possível.

Entre as aplicações da PCA, podemos citar a capacidade de reduzir o número


de variáveis envolvidas no problema. É comum, em problemas nos quais são
avaliados muitos fatores, existirem apenas três ou quatro que possuam variação
suficientemente importantes para ser avaliadas. Quando isso ocorre, é possível
que sejam omitidas as componentes principais (CP) com menor variação. Com
isso, as análises futuras são desenvolvidas com menor número de CPs.

Outra função da PCA é agrupar variáveis. Por exemplo, se em uma entrevista


com 20 variáveis for identificado que seis delas possuem comportamento muito
parecido, é possível condensá-las em uma nova variável. Esse tipo de análise é
muito importante na PCA, pois permite, depois de estudo da relação entre as
variáveis semelhantes, nomeá-las conforme características não numéricas.

É importante ressaltar que a PCA pode ser adequada à área a ser aplicada, então,
é comum que existam softwares que implementem a PCA com as adequações
necessárias.

A análise de componentes principais é uma técnica multivariada de modelagem


dos dados, baseada na avaliação da covariância. A técnica foi descrita por Pearson
(1901) e, por conta do volume de operações matemáticas a ser resolvido, foram
desenvolvidos métodos computacionais práticos.

A PCA é uma técnica que aplica uma transformação linear em um conjunto original
de variáveis, correlacionadas entre si, em um conjunto novo de variáveis não
correlacionadas. Avaliando a correlação entre as variáveis nesse novo sistema, é
possível reduzir a quantidade de variáveis sem a perda significativa de informação
presente no conjunto original.

Para ser possível essa análise, a variação observada nos eixos originais é
redistribuída, de modo a obter direções com máxima variância. Se as variáveis
originais compõem um sistema de coordenadas ortogonais, com o número
de direções igual ao número de variáveis, a PCA obtém um novo sistema de
coordenadas, com o mesmo número de direções, por meio da rotação dos eixos
no sentido de coincidi-los com as direções de maior variação dos valores,
obtendo um conjunto de eixos ortogonais não correlacionados.

91
UNIDADE IV │ BINÔMIOS

A transformação dos sistemas ortogonais se dá coincidindo os eixos de maior


ordem do sistema original aos de maior direção. De uma maneira simples, ele
rotaciona o sistema original até que o eixo x esteja na direção com maior variação.
Seguindo o conceito, o eixo y seria direcionado para a segunda maior direção, z
para a terceira, e a assim sucessivamente.

Com isso, se tínhamos um sistema xyz... original, agora teremos um sistema de


coordenadas x’y’z’... Lembre-se de que cada direção representa uma variável. A
aplicação da PCA está na redução do volume de variáveis envolvidas nas análises.
Essa redução é realizada de duas formas: a primeira é realizada diretamente,
eliminando as variáveis transformadas que menor representam variação no
problema avaliado, ou seja, identificando as direções com menor impacto no
problema. Essa técnica adota que o problema pode ser explicado, sem grandes
perdas de informação, se mantida 90% da variância original.

Como dito, a PCA avalia as variáveis por meio da construção de um novo sistema
de coordenadas com base na variação dos fatores. Então, para implementar a PCA
e conseguir obter esse novo sistema e seus valores das variáveis, podemos seguir o
seguinte roteiro:

1. normalização das variáveis;

2. calcular a matriz de covariância usando os dados normalizados;

3. calcular os autovalores (ou valores próprios) e autovetores (ou vetores


próprios) da matriz de covariância;

4. avaliar quais componentes não apresentam significância;

5. obter as relações lineares para o novo sistema de coordenadas.

Os vetores podem ser classificados em:

» fixos: têm pontos de aplicação bem definidos e não podem ser


deslocados sem que se alterem as condições do problema;

» livres: podem se mover livremente no espaço sem que se alterem as


condições do problema;

» deslizantes: podem ser deslocados ao longo de suas linhas de ação


sem que se alterem as condições do problema.
92
BINÔMIOS │ UNIDADE IV

A partir dessas classificações, podemos enquadrar as grandezas força, distância e


momentos como vetores deslizantes, isto é, produzem o mesmo efeito em qualquer
ponto da linha de ação, mas com efeitos distintos quando aplicadas em diferentes
linhas paralelas.

Como em “Estruturas para Engenharia” tratamos essencialmente da mecânica de


corpos rígidos, abordaremos, neste conteúdo, entidades de forças como vetores
deslizantes para o corpo rígido em que atuam.

Importante frisar que força é tratada como um vetor e, a rigor, vetor é uma entidade
matemática e, em vista disso, deve seguir todas as regras e princípios da álgebra
matemática.

Todo vetor pode ser encaixado em um sistema de coordenadas cartesianas, tanto em


casos bidimensionais como em tridimensionais. As caudas dos vetores podem ser
posicionadas na origem do sistema (coordenadas x, y e z iguais a zero) e expressas
como a soma de dois vetores perpendiculares entre eles nas direções dos eixos
coordenados x e y (e em z nos casos de problemas tridimensionais).

Esses vetores perpendiculares recebem o nome de componentes retangulares do


vetor original. O mais comum é utilizar os vetores horizontais como a direção do
eixo x e positivo para direita, os componentes verticais são vetores na direção do
eixo y e positivos para cima e os componentes saindo dessa folha do livro, como
vetores na direção do eixo z, positivos na direção do leitor.

Mas essa convenção pode ser alterada pelo engenheiro, em caso de necessidade,
para facilitar a resolução, logo um vetor qualquer pode ter um, dois ou três
componentes ao longo dos eixos de coordenadas x, y e z, dependendo de como se
orienta em relação aos eixos.

Isto posto, verifica-se que a utilização de componentes retangulares,


independentemente da notação, é uma abordagem apropriada para encontrar a
soma ou a resultante de um sistema com duas ou mais forças concorrentes.

É Importante ressaltar que as etapas apresentadas são o básico da PCA.


Conforme o tipo de análise desejada, a abordagem da PCA pode variar e
serem adicionadas novas etapas.

Para ajudar a compreender as expressões, imagine que os dados estão


salvos como uma matriz nxm, onde as linhas se referem às variáveis
envolvidas e as colunas aos tratamentos. Essa matriz transmite o
conjunto N, naturais, acima de zero (0). Considere que os dados obtidos

93
UNIDADE IV │ BINÔMIOS

serão aplicados para a escolha do melhor fornecedor para uma empresa,


aplicando três critérios: tempo de entrega (X1) em dias; a qualidade média
(X2), de 0 a 10; e a variação da qualidade (X3), medida de 0 a 1.

Primeiro, devemos normalizar as variáveis. Essa etapa é importante para que as


variáveis fiquem em uma mesma escala. Caso não se normalizem, existem grandes
chances das CPs tenderem para as direções em que as variáveis possuem maiores
valores numérico. A etapa de cálculo da normalização também é necessária para
fornecer as informações para o cálculo da matriz de covariância.

O autovalor de uma CP é igual à variância promovida por ela. Então, devemos


buscar aquelas CPs com maiores autovalores. Se um autovalor é baixo, simboliza
que a variabilidade dos valores naquela direção é pequena, podendo, nesse caso, ser
omitida dos testes.

Existem diferentes regras para definir quais CPs a serem usadas. Usaremos aqui a
regra que define que as CPs a serem usadas são aquelas que, somadas, representam
entre 70 e 90% da variância.

Percebe-se que a direção Y1 representa 67,3% da variância, que é menor do que a


regra.

Então selecionaremos as CPs Y1 e Y2, cuja proporção somada chega a 99,7%.


Isso quer dizer que as duas direções representam 99,7% da variação dos valores.
Nesse caso, omitir a Y3 representa a perda de informação de 0,3%.

Isso quer dizer que, se formos construir um modelo de estimativa que relacione
as variáveis originais, pode-se desenvolver um modelo baseado nas duas CPs e
depois converter para o sistema envolvendo as variáveis originais.

Devem ser considerados desde a quantidade de material ainda existente para a


fabricação do produto, os contratos com fornecedores, principalmente quanto à sua
validade, à capacidade da produção e à disponibilidadeda mão de obra.

Pela sua complexidade, isso pode levar alguns meses para ser concluído, pois
a produção somente pode ser encerrada quando não houver mais nenhuma
programação para fabricação do produto ou parte dele, e todos os recursos
necessários tiverem sido descontinuados.

Outra aplicação da PCA é no agrupamento de variáveis com base da análise


gráfica ou por meio das correlações calculadas. Com base nos autovetores,
podemos agrupar os dados. Se plotarmos os componentes de cada autovetor
94
BINÔMIOS │ UNIDADE IV

relativo a cada variável original, podemos agrupar aqueles que apresentam


pequenas diferenças nos ângulos. Quando isso ocorre, é comum que seja dado
um nome a esse agrupamento de modo a descrever a semelhança entre essas
variáveis.

Como já citado, a PCA é amplamente utilizadas para reduzir as dimensões das


amostras aplicadas em pesquisas, além de permitir o agrupamento de variáveis
em categorias. A aplicação da PCA se dedica a minimizar o número de variáveis
a serem aplicadas em análises e agrupá-las em categorias que permitam a melhor
compreensão do problema.

Por exemplo, em um censo, a quantidade de perguntas feitas a cada morador


é enorme. Se tentarmos aplicar estatísticas e/ou construir modelos envolvendo
todas as variáveis, o volume de variáveis (perguntas) e o número de respostas
tornam os resultados de difícil compreensão e, em muitos casos, de solução
proibitiva.

Nesse caso, a PCA transforma o problema original em um com menor número de


variáveis.

Na maioria dos casos, a quantidade de componentes que impactam verdadeiramente o


problema é pequena, em torno de três ou quatro. Com isso, a aplicação de ferramentas
estatísticas se torna viável e os resultados mais simples de serem compreendidos.
O agrupamento de variáveis é visível nos resultados de censos populacionais.
Quando se afirma que as condições de bem-estar social estão melhores, é possível
que o impacto de variáveis como saúde, tratamento de esgoto, água encanada
e lazer possua comportamento semelhante, e por isso foi categorizado como
bem-estar social. Perceba que, quando esse tipo de informação é passado em meios
de comunicação como televisão, são citados o grupo e depois alguns critérios que
fazem parte do grupo, já que todos eles têm comportamento semelhante e por isso
foram agrupados. A mesma abordagem pode ser vista em análises de satisfação
de clientes. Em engenharia de manutenção, a PCA pode ser aplicada para definir
os critérios que devem ser levados em consideração na busca da melhoria dos
processos.

Por meio das análises via PCA, pode-se indicar aqueles que mais impactam
os problemas ocorridos, já que apresentam maiores correlações com
as CPs e permitem identificar os critérios de menor importância para
o estudo. Por meio da análise de agrupamentos, é possível, inclusive,
definir como as planilhas serão construídas, com os dados ordenados
conforme comportamentos semelhantes, por isso essas planilhas possuem
subcategorias, destacadas pela análise de PCA.

95
UNIDADE IV │ BINÔMIOS

A PCA pode, inclusive, ser usada para identificar padrões em processos. Uma vez
que é possível eliminar as influências menos relevantes ao processo, resta apenas
o que mais importa na análise do problema. Visto desse modo, se aplicarmos
a PCA antes de qualquer análise de comparação, os ruídos serão removidos e
será mais fácil para a técnica de comparação identificar a presença ou não de
discrepâncias. Esse tipo de análise é aplicado em reconhecimento de padrões em
imagens ou de distribuições populacional ou ambiental.

Em muitas análises, é possível classificar as diversas variáveis em dois grupos. Por


exemplo, ao avaliar o desempenho de atletas, temos parâmetros como altura, peso,
idade, tempo de treinamento, experiência do treinador, entre outras. Se tentarmos
correlacionar todas as variáveis, de modo a tentar explicar o comportamento de
uma em função da outra, a quantidade de relações a serem estudadas seria alta e
dificultaria as análises.

Podemos, porém, dentre essas variáveis, distingui-las em dois grupos: um


relacionado a características biológicas e outro relacionado a características do
treinamento. Agora podemos buscar apenas as correlações que melhor expressam
a relação entre os dois grupos, o que reduz o número de informações a ser avaliado,
e com isso as conclusões podem ser mais bem compreendidas.

A correlação canônica tem por objetivo identificar e quantificar a associação entre


dois ou mais grupos de variáveis, buscando identificar as combinações lineares
que maximizam a correlação entre as variáveis de cada grupo. Essas combinações
lineares são as variáveis canônicas, e suas associações são denominadas
correlações canônicas. Imagine uma função do tipo y = ax.

É possível calcular uma correlação entre as variáveis x e y por meio do coeficiente


de Pearson. A correlação canônica fará o mesmo, mas considerando que x e y são
grupos de variáveis.

Entre as aplicações da correlação canônica, está a avaliação da correlação entre


dois conjuntos de variáveis. Caso seja identificado que existe a correlação, eles
podem ser tratados como um único elemento, já que a variação imposta em uma
variável se reflete no valor da outra. Por meio da análise da correlação canônica,
é possível prever o comportamento de um grupo de indicadores com base em
outro conjunto de variáveis.

Por conta dessa capacidade, a correlação canônica é capaz de simplificar o


conjunto de dados necessários para descrever um processo, agrupando aquelas
com correlação alta e apontando quais as variáveis originais são mais importantes.

96
Referências

ANTON, H. Cálculo: um novo horizonte. 6a. ed. Porto Alegre: Bookman, 2000. v. I.

BOOKS THOMAS, G. B. Cálculo. 12a. ed. São Paulo: Pearson Addison Wesley, 2012.
v. I,

FIAT. Mobi Like 1.0 2018. In site “Meta Fiat”. 2018. Disponível em: http://
www.metafiat.com.br/index.php?page=shop.product_details&category_
id=2&flypage=flypage.tpl&product_ id=172&option=com_virtuemart&Itemid=56/.
Acesso em: 27 maio 2020.

LEMMING, D. M.; GONÇALVES, M. B. Cálculo A: funções, limite, derivação,


integração. 6a. ed. São Paulo: Pearson Education, 2006.

STEWART, J. Cálculo. 7a. ed. São Paulo: Bookman, 2014. v. I.

SVEN. Area of a circle.svg. In site “Wikipedia Commons”, 2016. Disponível em:


https://upload. wikimedia.org/wikipedia/commons/0/0d/Area_of_a_circle.svg/.
Acesso em: 27 maio 2020.

SWOKOWSKI, E. W. Cálculo com Geometria Analítica. v. I. 2. ed. São Paulo: Makron.

Figuras
Figura 1. SVEN, 2016. (Adaptado).

Figura 2. SVEN, 2016. (Adaptado).

Figura 3. SVEN, 2016. (Adaptado).

Figura 4. SVEN, 2016. (Adaptado).

Figura 5. SVEN, 2016. (Adaptado).

Figura 6. SVEN, 2016. (Adaptado).

Figura 7. SVEN, 2016. (Adaptado).

Figura 8. SVEN, 2016. (Adaptado).

Figura 9. SVEN, 2016. (Adaptado).


97
REFERÊNCIAS

Figura 10. SVEN, 2016. (Adaptado).

Figura 11. SVEN, 2016. (Adaptado).

Figura 12. SVEN, 2016. (Adaptado).

Figura 13. SVEN, 2016. (Adaptado).

Figura 14. SVEN, 2016. (Adaptado).

Figura 15. SVEN, 2016. (Adaptado).

Figura 16. SVEN, 2016. (Adaptado).

Figura 17. SVEN, 2016. (Adaptado).

Figura 18. SVEN, 2016. (Adaptado).

Figura 19. SVEN, 2016. (Adaptado).

Figura 20. SVEN, 2016. (Adaptado).

Figura 21. SVEN, 2016. (Adaptado).

Figura 22. SVEN, 2016. (Adaptado).

Figura 23. SVEN, 2016. (Adaptado).

Figura 24. SVEN, 2016. (Adaptado).

Figura 25. SVEN, 2016. (Adaptado).

Figura 26. SVEN, 2016. (Adaptado).

Figura 27. SVEN, 2016. (Adaptado).

Figura 28. SVEN, 2016. (Adaptado).

Figura 29. SVEN, 2016. (Adaptado).

Figura 30. SVEN, 2016. (Adaptado).

Figura 31. SVEN, 2016. (Adaptado).

Figura 32. SVEN, 2016. (Adaptado).

Figura 33. SVEN, 2016. (Adaptado).

98
REFERÊNCIAS

Figura 34. SVEN, 2016. (Adaptado).

Figura 35. SVEN, 2016. (Adaptado).

Figura 36. SVEN, 2016. (Adaptado).

Figura 37. SVEN, 2016. (Adaptado).

Figura 38. SVEN, 2016. (Adaptado).

Tabelas
Tabela 1. Auto r(2020).

Tabela 2. Autor (2020).

99

Você também pode gostar