Você está na página 1de 313

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/305729897

INTRODUÇÃO À PESQUISA OPERACIONAL

Book · January 2010

CITATION READS

1 707

2 authors, including:

Antonio C. Baleeiro Alves


Universidade Federal de Goiás
12 PUBLICATIONS   3 CITATIONS   

SEE PROFILE

All content following this page was uploaded by Antonio C. Baleeiro Alves on 31 July 2016.

The user has requested enhancement of the downloaded file.


INTRODUÇÃO À
PESQUISA OPERACIONAL
Grão-Chanceler
Dom Washington Cruz, CP

Reitor
Prof. Wolmir Therezio Amado

Editora da PUC Goiás


Pró-Reitora da Prope
Presidente do Conselho Editorial
Profa. Dra. Sandra de Faria

Coordenador Geral da Editora da PUC Goiás


Prof. Gil Barreto Ribeiro

Conselho Editorial
Membros
Profa. Dra. Regina Lúcia de Araújo
Prof. Dr. Aparecido Divino da Cruz
Profa. Dra. Elane Ribeiro Peixoto
Profa. Dra. Heloisa Capel
Profa. Dra. Maria do Espírito Santo Rosa Cavalcante
Prof. Dr. Cristóvão Giovani Burgarelli
Ms. Heloísa de Campos Borges
Iúri Rincon Godinho
Maria Luisa Ribeiro
Ubirajara Galli
ANTÔNIO CÉSAR BALEEIRO ALVES
MARCO ANTONIO FIGUEIREDO MENEZES

INTRODUÇÃO À
PESQUISA OPERACIONAL
Copyright © by Antônio César Baleeiro Alves; Marco Antonio Figueiredo Menezes

Editora da PUC Goiás


Rua Colônia, Qd. 240-C, Lt. 26 - 29
Chácara C2, Jardim Novo Mundo
CEP. 74.713-200 – Goiânia – Goiás – Brasil
Secretaria e Fax (62) 3946-1814 – Revistas (62) 3946-1815
Coordenação (62) 3946-1816 – Livraria (62) 3946-1080

Comissão Técnica

Nilton José Rodrigues


Revisão

Biblioteca Central da UCG


Normatização

Félix Pádua
Editoração e Capa

M. C. Escher. Cubic space division, litografia, 1952


Ilustração da Capa

A474i Alves, Antônio César Baleeiro


      Introdução à pesquisa operacional / Antônio César
Baleeiro Alves e Marco Antonio Figueiredo Menezes. –
Goiânia: Ed. da UCG, 2010.
      311 p.

      ISBN 978-85-7103-565-2

      1. Pesquisa operacional.  2. Modelagem. 3. Sistema


linear. I. Menezes, Marco Antonio Figueiredo. II.
Título.
CDU:        519.8

Impresso no Brasil
Para minha esposa, Maria Abadia, e para os nossos filhos,
Flávio César, André Vinícius e Pedro.
Antônio César Baleeiro Alves

Para a minha esposa Greice e para a nossa filha Luana.


Marco Antonio Figueiredo Menezes
SUMÁRIO

Prefácio...................................................................................................................11

I Modelagem em Pesquisa Operacional..........................................................15


1.1 O processo de modelagem........................................................................15
1.2 Formulação de alguns problemas............................................................16
1.2.1 Um problema agrícola.....................................................................16
1.2.2 Um problema de designação...........................................................20
1.2.3 Um problema de amplificador de tensão.......................................23
1.2.4 Formulação em processos estocásticos...........................................25
1.3 Exercícios propostos..................................................................................27

II Matrizes e Sistemas Lineares.........................................................................31


2.1 Matrizes......................................................................................................31
2.1.1 Operações com matrizes..................................................................34
2.1.2 Determinante....................................................................................38
2.1.3 A inversa de uma matriz.................................................................46
2.1.4 Inversa de uma matriz e determinante..........................................47
2.2 Sistemas lineares algébricos de pequeno porte......................................49
2.3 Operações elementares sobre matrizes...................................................51
2.3.1 A forma escalonada..........................................................................54
2.3.2 Posto de uma matriz.........................................................................57
2.3.3 Matrizes elementares........................................................................60
2.3.4 O método de Gauss-Jordan.............................................................62
2.4 Sistemas lineares algébricos......................................................................65
2.4.1Sistemas homogêneos........................................................................68
2.4.2 Sistemas triangulares........................................................................70
2.4.3 O método de eliminação de Gauss.................................................73
2.4.4 Decomposição LU de matrizes quadradas....................................77
2.5 Exercícios propostos..................................................................................90

III Programação Linear........................................................................................95


3.1 O problema de Programação Linear......................................................95
3.1.1 Obtenção do formato padrão..........................................................96
3.2 A geometria da Programação Linear.....................................................98
3.3 Método simplex primal...........................................................................106
3.3.1 Mecanismo de mudança de base...................................................113
3.3.2 O algoritmo simplex.......................................................................121
3.4 Dualidade em Programação Linear......................................................127
3.4.1 Forma canônica da dualidade.......................................................129
3.4.2 Relações entre os problemas primal e dual..................................130
3.4.3 Relações entre as soluções ótimas dos problemas primal e dual...134
3.4.4 Regras de escrita do problema dual a partir de um
problema primal.............................................................................137
3.4.5 O teorema fundamental da dualidade.........................................139
3.4.6 Condições de Karush-Kuhn-Tucker para a Programação Linear....139
3.4.7 Método dual simplex...........................................................................140
3.5 Exercícios propostos................................................................................143

IV Distribuições de Probabilidade....................................................................147
4.1 Probabilidade...........................................................................................148
4.1.1 Probabilidade e frequência relativa..............................................152
4.2 Variável aleatória discreta......................................................................153
4.2.1 Esperança matemática e variância de uma variável
aleatória discreta.............................................................................156
4.3 Distribuições de probabilidade de variáveis aleatórias discretas.......157
4.3.1 Distribuição hipergeométrica........................................................157
4.3.2 Distribuição binomial.....................................................................159
4.3.3 Distribuição uniforme discreta.....................................................161

–8–
4.3.4 Distribuição de Poisson..................................................................163
4.4 Variável aleatória contínua.....................................................................166
4.5 Distribuições de probabilidade de variáveis aleatórias contínuas.....170
4.5.1 Distribuição normal.......................................................................171
4.5.2 Distribuição retangular ou uniforme...........................................179
4.5.3 Distribuição exponencial...............................................................180
4.5.4 Distribuição de Erlang...................................................................182
4.6 Teorema do limite central......................................................................184
4.7 Exercícios propostos................................................................................188

V Processos de Markov.....................................................................................191
5.1 Def inição e caracterização de processos de Markov...........................191
5.2 Relevância dos processos de Markov e possíveis aplicações...............193
5.3 Processos de Markov de tempo discreto...............................................194
5.3.1 Matriz de transição.........................................................................200
5.3.2 Cadeias de Markov.........................................................................202
5.3.3 Classificação das cadeias de Markov............................................203
5.3.4 Análise de cadeias finitas irredutíveis
com estados aperiódicos.................................................................211
5.3.5 Análise de cadeias finitas com estados absorventes....................216
5.3.6 Tempos médios de recorrência......................................................223
5.4 Processos de Markov de tempo contínuo.............................................227
5.4.1 Cadeias de Markov homogêneas de tempo contínuo.................231
5.5 Exercícios propostos................................................................................243

VI Sistemas de Filas de Espera..........................................................................247


6.1 Elementos básicos de sistemas de f ilas e notação de Kendall-Lee.....248
6.2 Conceitos básicos e parâmetros de sistemas de f ilas............................251
6.3 Medidas de efetividade dos sistemas de f ilas........................................256
6.3.1 Fórmula de Little............................................................................257
6.4 Sistemas de f ilas com chegadas e atendimentos do tipo markoviano......258

–9–
6.4.1 Sistema de filas M / M / 1...............................................................259
6.4.2 Sistema de filas M / M / s................................................................268
6.4.3 Sistema de filas M / M / 1 / C.........................................................272
6.5 Relevância da teoria de filas em sistemas de comunicação.................279
6.6 Exercícios propostos................................................................................280

VII Simulação Monte Carlo...............................................................................285


7.1 Geração de números aleatórios..............................................................287
7.2 Simulação Monte Carlo através da utilização de etiquetas................289
7.2.1 Exemplo em Programação Linear................................................293
7.2.2 Exemplo em sistemas de filas de espera.......................................294
7.3 Número de simulações necessárias para assegurar
um erro máximo especif icado................................................................296
7.3.1 Confiança e intervalo de confiança...............................................297
7.3.2 Fórmula para cálculo do número de simulações........................299
7.4 Simulação Monte Carlo aplicada à solução
de problema determinístico....................................................................300
7.5 Exercícios propostos................................................................................303

Referências...........................................................................................................309

– 10 –
PREFÁCIO

S  egundo a Sociedade Brasileira de Pesquisa Operacional (SOBRAPO) –


www.sobrapo.org.br/o_que_e_po.php –, a Pesquisa Operacional é uma
ciência aplicada voltada para a resolução de problemas reais que, tendo como
foco a tomada de decisões, aplica conceitos e métodos de várias áreas científi-
cas na concepção, no planejamento ou na operação de sistemas.
O presente livro apresenta uma introdução ao estudo da Pesquisa Ope-
racional. Baseia-se em cursos que ministramos, nos quais optamos por abor-
dar aqueles temas que, do nosso ponto de vista, fornecem o embasamento
necessário em modelos determinísticos e probabilísticos para a formação de
graduandos e pós-graduandos. Atuamos em cursos de graduação em Ciência
da Computação, Engenharia de Computação, Engenharia Elétrica, Enge-
nharia de Produção e em cursos de mestrado em Engenharia Elétrica e de
Computação, e Engenharia de Produção e Sistemas. Aqui, incluímos ainda
a importância para a formação de futuros profissionais de Administração,
Agronomia, Economia, Estatística e Matemática. Dessa forma, acreditamos
que este livro pressupõe conhecimentos de programação de computadores
e de conteúdo de Matemática equivalente ao estudado no primeiro ano de
cursos de graduação, principalmente, nas áreas de ciências exatas, engenha-
rias e áreas correlatas. A propósito, acreditamos que o diferencial deste livro
está na forma como os temas são apresentados: primeiro, são estabelecidos
os conceitos, as definições, as terminologias, para, em um segundo momen-
to, apresentarem-se os procedimentos de cálculo. Ressaltamos, além disso,
o apelo ao uso do computador, por meio de enunciados de algoritmos e da
proposição de exercícios.

– 11 –
No Capítulo I, tratamos sobre o processo de modelagem. Em particular,
sobre a etapa de formulação de problemas. Formulamos problemas de Pro-
gramação Linear, Programação Linear Inteira e de Programação Não Linear,
e discutimos modelos estocásticos.
No Capítulo II, tratamos sobre matrizes e sistemas lineares e, no Capí-
tulo IV, sobre distribuições de probabilidade. Ambos possuem o caráter de
revisão de conteúdos para facilitar a compreensão dos temas abordados nos
capítulos de soluções de modelos.
Introduzimos modelos determinísticos no Capítulo III, em que trata-
mos sobre Programação Linear, enfatizando os seus fundamentos primal e
dual, e o método simplex. Omitimos o método de pontos interiores que se
mostra eficiente – algoritmos polinomiais – para os problemas de Programa-
ção Quadrática, Complementaridade Linear e Programação Semidefinida,
todos sob certas hipóteses. Todavia, fazemos referência ao Laboratório de
Programação Linear (LabPL), que possui, além da família de métodos de
pontos interiores, várias outras famílias de métodos para resolver problemas
de Programação Linear.
Nos demais capítulos, são apresentados modelos probabilísticos e simu-
lação. No Capítulo V, tratamos sobre processos de Markov com vistas à sua
aplicação aos sistemas de filas. Os sistemas de filas markovianos são estudados
no Capítulo VI, e a simulação de Monte Carlo, no Capítulo VII.
A notação utilizada no livro é independente por capítulo. Isto quer di-
zer, por exemplo, que vetores podem aparecer em parênteses em um capítulo,
ou em colchetes em outro; S, como um conjunto qualquer em um capítulo,
ou como um espaço amostral em outro; A, como uma matriz qualquer em
um capítulo, ou como um conjunto de eventos; Z+, o conjunto dos números
inteiros não negativos em um capítulo, ou Z, como uma variável aleatória da
distribuição normal padronizada em outro; e, como o número de Euler em
um capítulo, ou como um número qualquer em outro etc.
Este livro teve seus primeiros manuscritos preparados há vários anos,
tendo iniciado por volta de 1999. De lá para cá demos vários cursos baseados
em vários livros como referências básicas. Assim, vários exemplos foram re-
tirados dessas referências e alterados, melhorados. Criamos outros a partir
desses, desenvolvemos novos. Dessa forma, no que nos foi possível, fizemos
referência in loco dos exercícios que são de autoria de colegas e, na seção 7.2,
em particular, referenciamos o livro que apresenta a mesma sequência de ra-
ciocínio e abordagem.

– 12 –
Iniciamos a escrita deste livro propriamente dita através de um projeto
entre Baleeiro, Marco e Francisco José Pfeilsticker Zimmermann. Este estu-
dou e nos apresentou o artigo de Wichmann e Hill sobre a geração de núme-
ros aleatórios e foi também quem revisou e discutiu as primeiras versões do
ainda manuscrito. Agradecemos com carinho ao nosso colega e amigo Zim-
mermann pelas contribuições e pelo estímulo, pois, mesmo em Moçambique,
ainda pergunta sobre o livro.
Em particular, Baleeiro agradece ao Professor Fujio Sato, pelas primei-
ras lições de Monte Carlo, e também ao Professor Rubén Augusto Romero
Lázaro, pelas excelentes discussões em Otimização.
Agradecemos aos colegas professores: Edir Lopes de Oliveira, José Elmo
de Menezes, Leizer de Lima Pinto, Rosângela Nunes Almeida de Castro e
Thyago Carvalho Marques pelas contribuições valiosas. Não poderíamos nos
esquecer de reconhecer o profissionalismo com que Nilton José Rodrigues e
Félix Pádua trataram a revisão e a diagramação do texto e ao coordenador
geral da Editora da PUC Goiás, o professor Gil Barreto Ribeiro pela atenção.
Um especial agradecimento a nossos alunos de turmas de outrora que, ao ex-
ternarem suas críticas e dúvidas, trouxeram importantes contribuições.

Os Autores

– 13 –
I
Modelagem em Pesquisa Operacional

N  este capítulo será estudado o processo de modelagem em Pesquisa


Operacional (PO). O objetivo aqui não é obter soluções de problemas
de PO, mas modelar problemas, em contraposição ao uso apenas da experiên-
cia e do bom senso.
Como referências básicas, sugerimos Hillier & Lieberman (1995) e
Taha (2008).
A inf  luência da Segunda Guerra Mundial foi decisiva para o res-
surgimento da PO, e os desenvolvimentos que se seguiram nas décadas
que sucederam ao grande conf  lito são devidos especialmente à difusão
do computador nas universidades e empresas. Havia demandas da parte
da indústria e dos governos – transportar, planejar, interceptar etc. Novos
conhecimentos em Matemática, Engenharia, Estatística, Economia e Com-
putação eram publicados, e f inanciamentos de pesquisa nesta área de co-
nhecimento surgiam. O projeto Scientif ic Computation of Optimal Programs
é um exemplo de relevante f inanciamento ocorrido na ocasião, que resultou
na formação de um grupo para pesquisar a viabilidade em aplicar a Mate-
mática e técnicas correlacionadas à análise de problemas de planejamento e
programação militar.

1.1 O processo de modelagem

Os responsáveis pela tomada de decisões nos mais variados campos da


atividade humana defrontam-se com a necessidade de resolver algum pro-

– 15 –
blema específ ico de PO. A compreensão e a def inição do problema são de
fundamental importância para o processo de modelagem.
O primeiro passo para a resolução de um problema de PO é a formu-
lação, que consiste em traduzir a realidade empírica para sentenças lógicas e
dados objetivos, a partir dos quais é possível o estabelecimento de um modelo
matemático. É aí que devemos decidir – julgamento humano – os aspectos do
sistema real que devemos incorporar ao modelo e os que podem ser ignora-
dos, as suposições que podem ser consideradas e as que podem ser descarta-
das. Essa tradução está sujeita a erros e falhas de comunicação. Também não
existem técnicas precisas, capazes de permitir o estabelecimento do modelo
de um problema.
O segundo passo é a dedução do modelo, isto é, a sua análise e resolução
através de algoritmos específ icos. Essa solução, atenta aos métodos numéricos
em computação, sugere uma tomada de decisão. Para a sua sustentação, recor-
remos ao terceiro passo, que é a interpretação de uma solução do modelo para
uma solução do sistema real. Se não for validado, o modelo deve ser reformu-
lado, e assim por diante. A esse processo dá-se o nome de modelagem. Para
maiores detalhes sobre o processo de modelagem, recomendamos Ravindran,
Phillips & Solberg (1987).
A seguir, estudaremos o primeiro passo do processo, ou seja, a formula-
ção em Programação Matemática e exemplos de modelos probabilísticos, sem
nos preocuparmos com a solução ou a validação.

1.2 Formulação de alguns problemas

Nesta seção, serão estudados três problemas de PO. Um da área agríco-


la, outro de administração e um de eletricidade. Também serão vistos alguns
processos estocásticos. Em cada subseção, será enunciado um problema de PO
e seu modelo correspondente. Ao f inal, com relação aos modelos probabilísti-
cos, apenas serão enunciados alguns problemas.

1.2.1 Um problema agrícola

Este problema foi extraído de Müller (2004) e trata da elaboração de um


modelo de Programação Linear para planejamento de produção agrícola.

– 16 –
1.2.1.1 O problema

Consideremos um problema na agricultura para decidir que produtos e em


que quantidade entre soja, milho, arroz e feijão devem ser plantados em uma
determinada área, de forma a maximizar o lucro líquido de um produtor rural.
Esse produtor precisa colher no mínimo 2.500 sacas de soja, para produ-
zir semente encomendada; 3.000 sacas de milho, para pagar empréstimo em
milho à cooperativa local; pretende plantar, no mínimo, 150 hectares de arroz
em terra de primeiro ano (fraca) e, no máximo, 80 hectares de feijão, plantio
de alto risco de perda, pois prefere, neste ano, não arriscar muito. A tabela 1.1
resume os dados do problema.

Tabela 1.1: Dados gerais do problema


Produção esperada Renda líquida esperada
Tamanho (sacas/hectare) (reais/hectare)
Gleba
(hectare)
Soja Milho Arroz Feijão Soja Milho Arroz Feijão

1 10 50 130 30 40 1.200 1.040 240 1.450

2 18 48 120 32 55 1.080 910 300 3.380

3 22 48 140 30 43 1.065 1.728 300 1.890

4 49 50 100 28 38 1.320 700 280 1.220

5 51 35 70 36 32 365 -120 600 610

6 54 32 65 37 30 160 -380 595 280

7 77 35 68 37 32 360 -171 620 585

8 69 38 95 39 36 610 410 665 900

Mínimo 2.500 3.000 150


(sacas ou hectares) (sacas) (sacas) (hectares)

Máximo 80
(hectares) (hectares)

Na tabela 1.1, “Produção esperada” diz respeito ao que se espera, em


sacas por hectare, de cada gleba (porção de terra) para o cultivo de cada um
dos alimentos. A “Renda líquida esperada” é a diferença entre o custo de
produção e a renda bruta esperada por hectare. As duas últimas linhas for-
mam o conjunto de restrições imposto pelo proprietário da fazenda, que cor-

– 17 –
responde ao mínimo ou ao máximo de sacas que deseja colher de um certo
tipo de produto, ou ao mínimo ou ao máximo de terra (em hectares) que
deseja plantar.

1.2.1.2 Um modelo

Como já af irmamos, não existem regras precisas para o processo de mo-


delagem. Por isso, sugerimos a tentativa de encontrar inicialmente as variá-
veis de decisão. Também recomendamos verif icar as unidades de grandeza de
cada dado, inclusive das variáveis de decisão.
Neste caso, def inimos xij, i = 1, 2, ..., 8 e j = 1, 2, 3, 4, as variáveis de deci-
são que pretendemos encontrar, se existirem, a saber: xij, é a área em hectare por
região i (i = 1, 2, ..., 8) para o plantio do alimento j ( j = 1, soja; j = 2, milho; j
= 3, arroz; e j = 4, feijão). Como o que interessa é a maximização da renda da
fazenda, serão utilizados os dados da “Renda líquida esperada” da tabela 1.1
para construir o valor da chamada função objetivo do problema, a saber:

1200 x11 + 1040 x12 + 240 x13 + 1450 x14 +


+ 1080 x21 + 910 x22 + 300 x23 + 3380 x24 +
+ 1065 x31 + 1728 x32 + 300 x33 + 1890 x34 +
+ 1320 x41 + 700 x42 + 280 x43 + 1220 x44 +
+ 365 x51 − 120 x52 + 600 x53 + 610 x54 +
+ 160 x61 − 380 x62 + 595 x63 + 280 x64 +
+ 360 x71 − 171x72 + 620 x73 + 585 x74 +
+ 610 x81 + 410 x82 + 665 x83 + 900 x84 .

O objetivo de maximização está sujeito a algumas restrições. A soma das


áreas para o plantio dos quatro produtos em cada gleba não pode ultrapassar
o tamanho total da gleba. Tem-se, então:

– 18 –
x11 + x12 + x13 + x14 ≤ 10
x21 + x22 + x23 + x24 ≤ 18
x31 + x32 + x33 + x34 ≤ 22
x41 + x42 + x43 + x44 ≤ 49
x51 + x52 + x53 + x54 ≤ 51
x61 + x62 + x63 + x64 ≤ 54
x71 + x72 + x73 + x74 ≤ 77
x81 + x82 + x83 + x84 ≤ 69.

Consideremos, ainda, que não pode haver área negativa para plantio.
Para isso, temos:
xij ≥ 0, i = 1, 2,  , 8 e j = 1, 2, 3, 4 .
Finalmente, devemos considerar as restrições impostas pelo proprietário
da fazenda – produção para atendimento de encomenda, para pagamento de
empréstimo e adequação às condições de qualidade do solo e risco de perdas
em relação ao feijão. Assim, obtemos as seguintes desigualdades:
50 x11 + 48 x21 + 48 x31 + 50 x41 + 35 x51 + 32 x61 + 35 x71 + 38 x81 ≥ 2500,
130 x12 + 120 x22 + 140 x32 + 100 x42 + 70 x52 + 65 x62 + 68 x72 + 95 x82 ≥ 3000 ,
x13 + x23 + x33 + x43 + x53 + x63 + x73 + x83 ≥ 150 e
x14 + x24 + x34 + x44 + x54 + x64 + x74 + x84 ≤ 80.

Portanto, o nosso modelo matemático que tenta traduzir uma particular


realidade da agricultura é dado pelo problema de PO:

maximizar 1200 x11 + 1040 x12 + 240 x13 + 1450 x14 +


+ 1080 x21 + 910 x22 + 300 x23 + 3380 x24 +
+ 1065 x31 + 1728 x32 + 300 x33 + 1890 x34 +
+ 1320 x41 + 700 x42 + 280 x43 + 1220 x44 +
+ 365 x51 − 120 x52 + 600 x53 + 610 x54 +
+ 160 x61 − 380 x62 + 595 x63 + 280 x64 +
+ 360 x71 − 171x72 + 620 x73 + 585 x74 +
+ 610 x81 + 410 x82 + 665 x83 + 900 x84

– 19 –
sujeito a: x11 + x12 + x13 + x14 ≤ 10,
x21 + x22 + x23 + x24 ≤ 18,
x31 + x32 + x33 + x34 ≤ 22,
x41 + x42 + x43 + x44 ≤ 49,
x51 + x52 + x53 + x54 ≤ 51,
x61 + x62 + x63 + x64 ≤ 54,
x71 + x72 + x73 + x74 ≤ 77,
x81 + x82 + x83 + x84 ≤ 69,

50 x11 + 48 x21 + 48 x31 + 50 x41 + 35 x51 + 32 x61 + 35 x71 + 38 x81 ≥ 2500

130 x12 + 120 x22 + 140 x32 + 100 x42 + 70 x52 + 65 x62 + 68 x72 + 95 x82 ≥ 3000

x13 + x23 + x33 + x43 + x53 + x63 + x73 + x83 ≥ 150 e


x14 + x24 + x34 + x44 + x54 + x64 + x74 + x84 ≤ 80,

xij ≥ 0, i = 1, 2,  , 8 e j = 1, 2, 3, 4.

A formulação discutida nesta seção refere-se a um modelo com fun-


ções af ins, isto é, lineares. Desta forma, chama-se este problema agrícola
de Problema de Programação Linear (Contínua), que estudaremos no Ca-
pítulo III.

1.2.2 Um problema de designação

O problema de designação (assignment problem, em inglês) é um proble-


ma clássico de Programação Linear Inteira.

1.2.2.1 O problema

Quatro pessoas – A, B, C e D – estão designadas para trabalhar em qua-


tro projetos diferentes – 1, 2, 3 e 4. A tabela 1.2 mostra quanto tempo – em
dias – cada pessoa consegue f inalizar um específ ico projeto.

– 20 –
Tabela 1.2: Dados gerais do problema
Projetos
Pessoas
1 2 3 4
A 5 6 7 4
B 6 5 8 4
C 6 8 9 5
D 7 6 6 3

O pagamento diário, por pessoa, em uma jornada de quatro horas, é de


60 reais. Suponha que cada pessoa é designada para realizar um projeto, e
cada projeto só pode ser realizado por uma única pessoa.

1.2.2.2 Um modelo

Neste caso, def inimos xij , i = 1, 2, 3, 4 e j = 1, 2, 3, 4, as variáveis de


decisão que pretendemos encontrar, se existirem, a saber:

1,1,se a pessoa i for (i = 1, pessoa ; i = 2, pessoa B; i = 3, pessoa C e i = 4, pessoa D)


 se a pessoa i (i = 1, pessoa A ; i = 2, pessoa B; i = 3, pessoa C e i = 4,
xij =  designada
pessoa D) para o projeto para
for designada j=1, 2, 3, 4
o projeto j (j = 1, 2, 3, 4)
0,0,caso
caso contrário.
contrÆrio.

Nosso interesse agora é minimizar o custo para a execução dos projetos.
Assim, utilizamos os dados da tabela 1.2 para construir o valor da função
objetivo, a saber:

60 ( 5 x11 + 6 x12 + 7 x13 + 4 x14 +


+ 6 x21 + 5 x22 + 8 x23 + 4 x24 +
+ 6 x31 + 8 x32 + 9 x33 + 5 x34 +
+ 7 x41 + 6 x42 + 6 x43 + 3 x44 ).

Nosso objetivo de minimização está sujeito a algumas restrições. Sabe-


mos que cada pessoa é designada para realizar um único projeto, isto é,

– 21 –
4

∑x
j =1
ij = 1 , i = 1, 2, 3, 4;

e que cada projeto só pode ser realizado por uma única pessoa, isto é,

∑x
i=1
ij = 1 , j = 1, 2, 3, 4.

Portanto, o nosso modelo matemático que tenta traduzir uma particular


realidade do problema de designação é dado pelo problema de PO:

minimizar 60 ( 5 x11 + 6 x12 + 7 x13 + 4 x14 +


+ 6 x21 + 5 x22 + 8 x23 + 4 x24 +
+ 6 x31 + 8 x32 + 9 x33 + 5 x34 +
+ 7 x41 + 6 x42 + 6 x43 + 3 x44 )

sujeito a: 4

∑x
j =1
ij = 1 , i = 1, 2, 3, 4

∑x
i=1
ij = 1 , j = 1, 2, 3, 4

xij ∈{0, 1} , i = 1, 2, 3, 4 e j = 1, 2, 3, 4.

A formulação discutida nesta seção recebe o nome de Problema de Pro-


gramação Linear Inteira, por tratar-se de um modelo com funções lineares cujas
variáveis de decisão são inteiras. Esse assunto não será objeto de estudo neste
livro. Todavia, para os leitores interessados em aprofundar seus conhecimen-
tos nessa área, sugerimos os livros de Goldbarg & Luna (2005), Foulds (1984) e
Garf inkel & Nemhauser (1972).

– 22 –
1.2.3 Um problema de amplif icador de tensão

A seguir apresentamos um problema de otimização que envolve um cir-


cuito elétrico.

1.2.3.1 O problema

Em Engenharia Elétrica é comum a utilização de circuitos amplif ica-


dores em aparelhos de áudio e vídeo. Esses circuitos recebem em sua entrada
uma tensão elétrica e aumentam sua amplitude, disponibilizando na saída um
sinal elétrico amplif icado.
O circuito da f igura 1.1 mostra de maneira simplif icada um amplif ica-
dor em que os estágios de entrada e saída são representados, respectivamente,
por uma fonte de tensão, v, e por uma resistência de carga, Rc , igual a 10 Ω
( Ω = V A ). Esse circuito, para certos valores do parâmetro α , comporta-se
como um amplif icador de tensão. Devem ainda ser respeitados os limites in-
ferior e superior de 12 V e 30 V, respectivamente, para a tensão na resistência
de carga vc = 10 ic .

Figura 1.1: Circuito básico para amplif icação da tensão v

– 23 –
A tensão vab é igual a 1 × 106 i , isto é, a queda de tensão no resistor de
1 MΩ . A tensão v da fonte está restrita aos limites inferior e superior, res-
pectivamente, de 340 mV e 500 mV . O parâmetro α deve ser no mínimo
igual a 120.

1.2.3.2 Um modelo

Neste caso, def inimos as variáveis de decisão que se pretende encontrar,


se existirem, a saber:

i: corrente elétrica em amperes (A) suprida pela fonte;


ic : corrente elétrica em amperes (A) no lado da carga;
v: tensão elétrica da fonte em volts (V);
α: parâmetro de controle da fonte dependente, que é adimensional.

O nosso interesse é operar o circuito da f igura 1.1 minimizando a perda


de energia elétrica em watts (W = VA) nos resistores de resistências 0,7 MΩ,
1 MΩ e 5 Ω, a saber:

1,7 × 106 i 2 + 5ic2 .

Na expressão da perda de energia elétrica não está incluída a resistência


Rc, porque esta representa a carga do circuito.
Nosso objetivo de minimização está sujeito a algumas restrições. De
acordo com a Segunda Lei de Kirchhoff, que estabelece que a tensão aplicada
a qualquer percurso fechado de um circuito é igual ao somatório das quedas
de tensão naquele percurso, temos:

v = 0,7 × 106 i + vab = 1,7 × 106 i,

substituindo vab = 1 × 106 i.

Procedendo de modo análogo para analisar o percurso fechado em que


se encontra a resistência de carga, obtemos:

α vab = 5ic + vc .

– 24 –
Substituindo vc = 10 ic e vab = 1 × 106 i na última igualdade e desenvol-
vendo, obtemos

106 α i − 15ic = 0.

Além disso, foi dado que:

0, 34 ≤ v ≤ 0, 50
e
12 ≤ vc = 10 ic ≤ 30 .

Dividindo essa última dupla desigualdade por dez, obtemos:

1, 2 ≤ ic ≤ 3.

Portanto, o nosso modelo matemático que tenta traduzir uma particular


realidade do problema de minimização das perdas em um circuito amplif ica-
dor de tensão é dado pelo problema de PO:

minimizar 1,7 × 106 i 2 + 5ic2


sujeito a: v − 1,7 × 10 i = 0
6

106 α i − 15ic = 0
1, 2 ≤ ic ≤ 3
0, 34 ≤ v ≤ 0, 50
α ≥ 120 .

A formulação discutida nesta seção refere-se a um modelo com pelo me-


nos uma função não linear. Desta forma, chamamos este problema de am-
plif icador de tensão de um problema de Programação Não Linear, que não
será objeto de estudo neste livro. Todavia, sugerimos a leitura de Bazaraa,
Sherali & Shetty (2006) e Luenberger (2003).

1.2.4 Formulação em processos estocásticos

Processos estocásticos ou modelos probabilísticos são modelos mate-


máticos desenvolvidos para analisar sistemas dinâmicos sujeitos a incerteza,

– 25 –
usando-se a linguagem da probabilidade. O termo “dinâmico” signif ica que a
variável tempo geralmente está envolvida no processo de formulação. A prin-
cipal característica de um problema estocástico é que, associado a pelo menos
uma de suas variáveis, temos um número que mede o grau de incerteza – ou
de certeza – da ocorrência do valor da variável, dado pela probabilidade.
A formulação em processos estocásticos normalmente compreende a
elaboração de sentenças lógicas, a interpretação de dados estatísticos sobre o
problema e a identif icação da distribuição de probabilidade que governa as
variáveis. Depois de construído, o modelo pode admitir soluções analíticas.
Em casos de problemas complexos, a simulação computacional tem-se mos-
trado a melhor alternativa.
No Capítulo IV, serão estudadas distribuições de probabilidades. Assim,
o passo da formulação será substituído pela descrição em linguagem natural
para processos de Markov (Capítulo V), sistemas de f ilas de espera (Capítulo
VI) e simulação Monte Carlo (Capítulo VII).

1.2.4.1 Processos de Markov

Muitos processos que ocorrem em sistemas reais podem ser estudados


como se o sistema sob análise passasse, a partir de um estado inicial, por uma
sequência de estados em que a transição de um determinado estado para o
seguinte ocorreria segundo uma certa probabilidade. No caso em que essa
probabilidade de transição depende apenas do estado em que o fenômeno se
encontra e do estado a seguir, o processo será designado processo de Markov
de primeira ordem, e uma sequência de estados seguindo esse processo será
denominada cadeia de Markov.
Um conceito fundamental em processos de Markov é a noção de esta-
do. Propriedades em comum entre indivíduos ou objetos caracterizam o que
chamamos de estado. Podemos apontar associações entre propriedade em co-
mum e estado: uma população da Região Norte que migra para o Sul; veícu-
los estacionados numa determinada área; máquinas numa grande linha de
produção etc.

1.2.4.2 Sistemas de f ilas de espera

Um processo de f ilas consiste na chegada de usuários, por exemplo,


a um estabelecimento de prestação de serviços e a consequente espera ali-

– 26 –
nhados em f ila. O usuário que chega ao estabelecimento ou aguarda aten-
dimento, se todos os atendentes estiverem ocupados, ou é prontamente
atendido em caso contrário. Após receber o serviço, o usuário deixa o esta-
belecimento.

1.2.4.3 Simulação Monte Carlo

A simulação consiste em reproduzir o funcionamento de um sistema com


o auxílio de um modelo. Toda simulação requer a construção de um modelo
com o qual são feitos experimentos. No presente caso, esse modelo é def inido
por um conjunto de relações lógico-matemáticas descritas geralmente por um
programa de computador. A partir do modelo, as simulações permitirão testar
algumas hipóteses sobre o valor de variáveis controladas. As conclusões são
usadas, então, para melhorar o desempenho do sistema em estudo, proporcio-
nando suporte bem fundamentado para a tomada de decisões.
A simulação computacional surgiu a partir da ideia do Método Monte Carlo,
durante uma conferência em Los Alamos, nos Estados Unidos, após a Segunda
Guerra Mundial. Naquela ocasião, após serem apresentadas as experiências
adquiridas com o ENIAC – Electronic Numerical Integrator Analyser and Computer
–, Stanislaw Ulam pressentiu a potencialidade da nova máquina para técnicas de
amostragem estocástica. John Von Neumann, pioneiro da Computação, também
presente na conferência, foi um dos precursores desse método. Monte Carlo baseia-
se essencialmente na geração intensiva de números aleatórios para a solução por
simulação computacional de problemas estocásticos (ULAM; RICHTMEYER;
NEUMANN, 1947; METROPOLIS; ULAM, 1949).
Número aleatório é um número de uma sequência, cuja probabilidade
de ocorrência é a mesma que a de qualquer outro. Métodos de simulação de
problemas probabilísticos – não determinísticos – exigem a geração de núme-
ros aleatórios.

1.3 Exercícios propostos

1. (BOLDRINI et al., 1986) A Companhia Sovina de Investimentos possui seis


milhões de reais, quantia que deverá ser aplicada em cinco tipos de investimen-
tos. Os retornos anuais para cada investimento são: investimento 1 (I1), 10%;
investimento 2 ( I2 ), 8%; investimento 3 ( I3 ), 6%; investimento 4 ( I4 ), 5%; e
investimento 5 ( I5 ), 9%.

– 27 –
O gerente dessa companhia deseja diversif icar os investimentos para ob-
ter o máximo de rendimento possível. Dado o elemento de risco envolvido,
o gerente restringiu a quantia a ser aplicada em I1 a não mais que a soma das
quantias aplicadas em I3 , I4 e I5. O total a ser aplicado em I2 e I5, em con-
junto, deve ser pelo menos igual à quantia aplicada em I3. O I2 deve estar
limitado a um nível que não exceda à quantia aplicada em I4 .
É preciso determinar a alocação ótima de investimento entre as cinco
categorias, de forma que o retorno ao f inal do ano seja o máximo possível.
Formular o problema.

2. (BOLDRINI et al., 1986) Uma empresa nacional possui fábricas em Cam-


pinas (SP) e em Belo Horizonte (MG). Essa empresa produz e distribui com-
putadores a comerciantes de várias cidades. Em uma determinada semana,
a empresa tem em estoque: 30 unidades em Campinas e 40 em Belo Hori-
zonte. Nessa mesma semana, a empresa deve atender os seguintes pedidos:
20 unidades para São Paulo (SP), 25 unidades para o Rio de Janeiro (RJ) e 25
unidades para Vitória (ES). O problema consiste em distribuir as máquinas
aos comerciantes de forma a atender os pedidos a um custo mínimo de trans-
porte. Os custos unitários de transporte são R$ 9,00 de Campinas para São
Paulo; R$ 16,00, de Campinas para o Rio de Janeiro; R$ 25,00, de Campinas
para Vitória; R$ 27,50 de Belo Horizonte para São Paulo; R$ 22,50 de Belo
Horizonte para o Rio de Janeiro e R$ 21,00 de Belo Horizonte para Vitória.
Formular o problema.

3. (HILLIER; LIEBERMAN, 1995) Uma multinacional decide instalar-se


em Goiás e deve escolher, entre os municípios de Catalão e Rio Verde, aquele
em que irá construir a fábrica e o armazém. A construção de fábricas e ar-
mazéns nessas cidades resulta nos índices de retornos indicados na tabela 1.3.

Tabela 1.3: Índices de retorno em unidades monetárias

Catalão Rio Verde


Fábrica 72 40
Armazém 48 32

– 28 –
Os seguintes critérios devem ser respeitados no processo de decisão:
deverá ser escolhida apenas uma cidade para a construção da fábrica e do
armazém; em unidades monetárias, o investimento requerido na construção
de uma fábrica em Catalão é de 48 e em Rio Verde é de 24. O investimento
requerido na construção de um armazém em Catalão é de 40 e em Rio Verde
é de 16. A empresa dispõe-se a investir no máximo 80 unidades monetárias
nas construções. Formular o problema de modo a maximizar o retorno do
investimento.

4. Considere o problema da seção 1.2.3 sobre a operação do amplif icador de


tensão com mínimas perdas. Reescreva o modelo em função das variáveis de
decisão α e v, que, para este problema, são de fato as variáveis de controle.

5. (BAZARAA; JARVIS; SHERALI, 1997) A qualidade do ar em uma re-


gião depende principalmente das emissões de ef  luentes – CO2 , SO2 , CH4
etc. – na atmosfera pelas n indústrias existentes. Cada instalação industrial
pode utilizar m diferentes tipos de combustível. Suponha que a energia total
necessária à indústria j é b j calorias por dia e que cij é a emissão de ef  luentes
por tonelada do combustível i pela indústria j . Além disso, suponha que o
combustível do tipo i custa ci dólares por tonelada e que cada tonelada desse
tipo de combustível gera α ij calorias na indústria j . O nível de poluição do
ar na região não pode exceder a b microgramas por metro cúbico. Finalmente,
seja γ j um parâmetro meteorológico que relaciona emissões da indústria j à
qualidade do ar da região. Escrever o modelo do problema para determinar a
mistura de combustíveis a ser utilizada em cada indústria.

6. (ARENALES; ARMENTANO; MORABITO; YANASSE, 2007) Uma


nova máquina deve ser instalada em uma fábrica cujo piso tem formato retan-
gular e os cantos opostos têm as seguintes coordenadas (unidade em metros):
(– 40 – 40)T e (40 20) T. Existem quatro máquinas já instaladas nas posições:
(0 0) T, (– 40 – 40)T, (– 30 – 10)T e (– 35 0)T. Formule um modelo matemáti-
co para determinar a localização ótima da nova máquina, considerando que
a distância entra a nova máquina e as demais seja mínima. Use a distância

– 29 –
“reticulada” (como se o deslocamento fosse pelas ruas de uma cidade), isto é,
se x1 e x2 são as coordenadas da nova máquina, então a distância entre a nova
máquina e outra instalada na posição (y1 y2)T é dada por: |x1 – y1| + |x2 – y2|.

7. Consulte a literatura sobre Pesquisa Operacional e forneça um exemplo de


problema estocástico.

– 30 –
II
Matrizes e Sistemas Lineares

P  raticamente em todos os campos de estudo da Pesquisa Operacio-


nal utilizam-se matrizes, seja na representação de sistemas algébri-
cos lineares, em expressões contidas em passos de algoritmos de solução
de problemas, e em representações algébricas de processos de Markov,
entre tantas outras. A forma adequada de representar e manipular gran-
de quantidade de dados é a utilização de matrizes. Essencialmente, os
algoritmos que realizam operações numéricas em computador, espe-
cialmente quando manipulam muitos dados, são implementados para
operar com matrizes. As matrizes também são úteis quando se deseja
simbolizar de forma concisa uma sequência sistemática de operações
matemáticas.
Este capítulo aborda noções elementares de álgebra de matrizes que,
de alguma maneira, estão associados aos tópicos de Pesquisa Operacional
que serão abordados neste livro. A título de complementação, sugerimos a
leitura de Boldrini et al. (1986), Campos (2001) e Ruggiero & Lopes (1996).

2.1 Matrizes

Matriz é uma tabela de elementos dispostos em linhas e colunas. Aqui,


trataremos de matrizes cujos elementos são números. Particularmente, nú-
meros reais. Denotamos uma matriz A que possui m linhas ( i = 1, 2,  , m )
e n colunas ( j = 1, 2,  , n ) assim:

– 31 –
 a11 a12 a13  a1 j  a1n 
a a22 a23  a2 j  a2 n 
 21 
        
A = [ aij ] =  . (2.1)
 ai1 ai 2 ai 3  aij  ain 
        
 
 am1 am2 am3  amj  amn 

O elemento aij, i = 1, 2,  , m e j = 1, 2,  , n, encontra-se situado na


linha de número i e na coluna de número j.
Duas matrizes A, m × n, e B, p × q, são iguais, A = B, quando o núme-
ro de linhas de A é igual ao número de linhas de B, o número de colunas de
A é igual ao número de colunas de B e todos os seus elementos correspon-
dentes são iguais.
Serão apresentados agora, alguns tipos de matrizes. Seja dada a matriz A,
m × n. Diz-se que A é uma matriz quadrada quando m = n . A é uma matriz
nula quando aij = 0 para todo i = 1, 2,  , m e para todo j = 1, 2,  , n. Se
n = 1, ou seja, apenas uma coluna existe, chamamos A de matriz coluna. Por
igual raciocínio, se m = 1, denominamos A matriz linha.
Um tipo especial de matriz quadrada é a matriz identidade, que possui
elementos unitários na diagonal e zeros em todas as outras posições, mostrada
em (2.2) para a ordem n × n

1 0 0  0  0
0 1 0  0  0
 
      
I= . (2.2)
0 0 0  1  0
      
 
0 0 0  0  1

Doravante, representaremos a matriz identidade pelo símbolo I. To-


davia, note que em outras bibliograf ias também se utiliza a notação In para
uma matriz identidade de ordem n × n.
Uma matriz quadrada A é dita matriz diagonal quando possui elemen-
tos aij = 0 para todo i ≠ j. Se A for uma matriz quadrada com aij = 0 para

– 32 –
todo i > j , A é chamada de matriz triangular superior. Se A for uma matriz
quadrada com aij = 0 para todo i < j , A recebe o nome de matriz triangular
inferior. A seguir, estão mostrados exemplos de matrizes triangulares 4 × 4,
sendo A uma matriz triangular superior e B uma matriz triangular inferior.

1 −1 4 −1 1 0 0 0
0 0 1 3  0 3 0 0
A=   e B=  . (2.3)
0 0 1 12  1 2 −1 0
   
0 0 0 2 3 1 4 3

As matrizes coluna e linha são designadas como vetores. Alguns autores


as chamam também de vetor coluna ou vetor linha. Neste texto, para ho-
mogeneizar a notação e facilitar a compreensão das expressões que utilizam
matrizes, a designação vetores será atribuída apenas a matrizes do tipo coluna.
A expressão mostrada a seguir ilustra essa def inição

 v1 
v 
 2

v= . (2.4)
 vi 

 
 vm 

Em (2.4) tem-se uma matriz coluna, que é denotada pelo vetor v, com
suas componentes v1 , v2 ,  , vi ,  , vm.
Quanto à quantidade de elementos não nulos que uma matriz apresen-
ta, é usual designar por matriz densa aquela em que a maior parte dos seus
elementos é diferente de zero. As matrizes que apresentam grande quanti-
dade de elementos nulos são conhecidas como matrizes esparsas. Matrizes
que aparecem em modelos de problemas de grande porte do mundo real
normalmente são esparsas. Por exemplo, em certos estudos da área de En-
genharia Elétrica, matrizes de redes elétricas reais apresentam 99,5% de ele-
mentos nulos.
Uma peculiaridade interessante de matrizes é que essas estruturas de
dados admitem operações de adição, subtração e multiplicação, praticamente

– 33 –
como se faz com números; todavia, observam-se certas restrições para a reali-
zação dessas operações.

2.1.1 Operações com matrizes

Dadas duas matrizes A e B, sob certas condições, as operações de adi-


ção, subtração e multiplicação são def inidas.
Para facilitar a compreensão e tornar a exposição mais didática, serão
tratadas primeiramente as operações de adição e subtração, que exigem que
as matrizes sejam de mesma ordem.

Def inição 2.1 (Adição): Sejam aij o elemento genérico da matriz A e bij o


elemento genérico da matriz B, ambos os elementos situados na iésima linha
e na jotaésima coluna de suas respectivas matrizes. Desde que as matrizes A
e B tenham a mesma ordem, m × n, a matriz obtida da adição, A + B , é uma
matriz também de ordem m × n, tal que seus elementos são obtidos da soma
do elemento aij de A e o elemento bij de B. Portanto, a adição resulta numa
matriz designada por C, de modo que:

( A, B)  C = A + B ⇒ [ cij ] = [ aij ] + [ bij ] = [ aij + bij ] .

Para exemplif icar a operação de adição, consideremos as matrizes dadas a seguir:

 3 −1 8 1
 1   1
A=  0  e B =  −1 .
 2  4
 −5 1   20 5 
  
A adição A + B resulta na matriz C, conforme indicamos a seguir:
A+ B= C
 3 −1  8 1   3 + 8 −1 + 1  11 0
 1  1  1 1  3
0  +  −1  =  0 −1 +  =  −1 .
 2  4  2 4  4
   5   −5 + 20 1 + 5  15 6 
 −5 1   20
Observe que, a partir dos cálculos anteriores, a adição foi efetuada elemento
a elemento, somando-se apenas elementos que ocupam a mesma posição.

– 34 –
Def inição 2.2 (Subtração): Sejam aij e bij , respectivamente, os elementos ge-
néricos das matrizes A e B, tal como estabelece a def inição 2.1. Desde que as
matrizes A e B tenham a mesma ordem, m × n, a matriz obtida da subtra-
ção, A – B, é uma matriz também de ordem m × n, tal que seus elementos são
obtidos ao subtrair-se o elemento bij do elemento aij . Portanto, a subtração
A – B resulta em uma matriz designada por C, de modo que:

( A, B)  C = A − B ⇒ [ cij ] = [ aij ] − [ bij ] = [ aij − bij ] .

Para exemplif icar a operação de subtração, consideremos as matrizes


dadas no exemplo referente à def inição 2.1. Então, a subtração A − B resulta
na matriz C indicada a seguir:

A− B= C
 3 −1  8 1  3−8 −1 − 1  −5 −2
 1  1   1 1  1.
0  −  −1  = 0 − ( −1) − = 1 
 2  4  2 4  4
   5   −5 − 20 1 − 5   −25 −4
 −5 1   20

A operação de multiplicação de matrizes já não é tão trivial quanto as


operações de adição e subtração.
Primeiramente, a condição de existência da multiplicação da matriz
A pela B, cujas ordens respectivas são m × n e p × q, é que o número de
colunas da matriz A precisa ser igual ao número de linhas da matriz B, isto
é, n = p. A matriz produto, neste caso, tem ordem m × q.
A figura 2.1 ilustra duas situações: no primeiro exemplo, a multiplicação
é possível e, no segundo, a multiplicação não é def inida, ou seja, é impossível.
Nessa f igura, o símbolo * indica um elemento qualquer da matriz.

*  * *  * * * 
*  * * = * * 
 [ ]   * * *  * * 
  * * 
* * * * * *  

3 ×1 1× 2 → 3 × 2 3× 3 2× 2
possível impossível
Figura 2.1: Exemplos de situações de multiplicação de matrizes

– 35 –
Def inição 2.3 (Multiplicação de duas matrizes): Dadas duas matrizes A, m × n, e
B, n × q, observada a condição de existência, a multiplicação de A por B resulta
em uma matriz designada por C, de modo que:

( A, B)  AB = C = [ cil ],
em que
n
cil = ∑a
k =1
ik bkl , i = 1, 2, , m e l = 1, 2, , q.

Em geral, AB ≠ BA. De fato, para

 0 0 1
A=   e B =  ,
 −1 1 1

 0 0  1  0 × 1 + 0 × 1  0 
AB =    =   =  ,
 −1 1 1  −1 × 1 + 1 × 1 0 

enquanto que BA não está def inida para a multiplicação de matrizes. Mas,


1 0 
para B =   , obtemos AB = BA.
0 1 

A transposição de matrizes é def inida conforme (2.5),

A  AT = C = [ cij ], (2.5)
em que

cij = a ji ,

sendo AT a notação para a transposta da matriz A.

Dizemos que A é uma matriz simétrica quando A é uma matriz qua-


drada com aij = a ji para todos os is e js. Uma matriz A é antissimétrica
quando é uma matriz quadrada com elementos aij = − a ji . As matrizes simé-

– 36 –
trica e antissimétrica possuem as propriedades expressas em (2.6) e em (2.7),
respectivamente,

A = AT (2.6)
e
A = − AT . (2.7)

Consideremos uma matriz A, m × n, e uma matriz B, n × q. Então,

( AB)T = BT AT .
Com efeito,
T
  a11 a12  a1n   b11 b12  b1q 
a b b22  b2 q 
a22  a2 n   21  =
( AB) =   
T 21
          
   
  am1 am2  amn   bn1 bn2  bnq 

T
 n n n


 a1k bk1 ∑a 1 k bk 2  ∑ a1k bkq 
 k =1 k =1 k =1 
 n n n 

 a b
=  k =1
2 k k1 ∑a
k =1
2 k bk 2  ∑
k =1
a2 k bkq 
 =
 
     
 n n n 
 a b amk bkq 
 ∑ mk k1 ∑a mk bk 2  ∑ 
 k =1 k =1 k =1 

 n n n


 a1k bk1 ∑ a2 k bk1  ∑a mk bk1 
 k =1 k =1 k =1 
 n n n 

 a b
=  k =1
1k k 2 ∑a
k =1
2 k bk 2  ∑
k =1
amk bk 2 
=
 
     
 n n n 
 a b amk bkq 
∑ 1 k kq ∑a 2 k bkq  ∑ 
 k =1 k =1 k =1 

– 37 –
 n n n


 bk1 a1k ∑ bk1 a2 k  ∑b k1 amk 
 k =1 k =1 k =1 
 n n n 

 b a
=  k =1
k 2 1k ∑b
k =1
k 2 a2 k  ∑
k =1
bk 2 amk 
=
 
     
 n n n 
 b a bkq amk 
 ∑ kq 1 k ∑b kq a2 k  ∑ 
 k =1 k =1 k =1 

= BT AT.
A multiplicação de um número real por matrizes é def inida por:

(α , A)  α A = α [ aij ] = [α aij ].

A seguir estudaremos o determinante.

2.1.2 Determinante

Def inição 2.4 (Determinante): Seja Cn o conjunto de todas as matrizes qua-


dradas de ordem n. Isto é, matrizes n × n, cujos elementos são números reais.
Def inimos o determinante como a função

det : Cn → ℜ
A  det( A),

em que, det( A) pode ser calculado de forma recursiva, da seguinte maneira:

a) n = 1,
A = [ a11 ] ⇒ det( A) = a11 .

b) n = 2,

– 38 –
 a11 a12 
A=  ⇒ det( A) = a11 × a22 − a12 × a21 .
 a21 a22 

c) n ≥ 3 ,

n
A = [ aij ] ⇒ det( A) = ∑ a ( −1)
j =1
ij
i+ j
Mij , para um dado i com i = 1, 2,  , n,

em que Mij é o determinante da matriz (submatriz) que se obtém de A, reti-


rando a iésima linha e a jotaésima coluna.

Exemplo 2.1: Considere

 1 −2 3 
A =  2 1 −1 .
 −2 −1 2 

Calcule det( A) .

Optaremos por f ixar a linha 1 e calcular o determinante de A aplicando


a def inição 2.4, do seguinte modo:

  1 −2 3 
det( A) = det  2 1 −1 =

 
  −2 −1 2 
 

= 1× ( −1)1+1 × M11 + ( −2) × ( −1)1+ 2 × M12 + 3 × ( −1)


1+ 3
× M13

= 1 × (1 × 2 − ( −1) × ( −1)) + 2 × (2 × 2 − ( −2) × ( −1)) + 3 × (2 × ( −1) − ( −2) × 1) = 5.

∴ det( A) = 5.

A partir da def inição de determinante, não é difícil contar as multipli-


cações necessárias para se calcular o determinante de uma matriz de ordem n:

– 39 –
para uma matriz de ordem 2, são necessárias 2 multiplicações. Para uma ma-
triz de ordem 3, é preciso calcular 3 determinantes de ordem 2 e multiplicar
esses determinantes pelos elementos da linha escolhida, perfazendo, neste caso, 9
multiplicações, e assim por diante. A fórmula recursiva p­­n=n(pn–1+1), iniciando
com p1=0, reproduz a quantidade requerida de multiplicações no cálculo do
determinante de uma matriz de ordem n, quando aplicamos a def inição 2.4.
Por exemplo: para matrizes de ordem 1, 2, 3, 4 e 5, obtemos p1=0, p2=2, p3=9,
p4=40, p5=205, respectivamente. O número de multiplicações é muito elevado
para matrizes de porte médio e, por esta razão, qualquer algoritmo que envol-
va o cálculo de determinantes não é praticável em implementações computa-
cionais. Por exemplo, o cálculo do determinante de uma matriz 10×10 exigirá
6.235.300 multiplicações. Para efeito de comparação, a tabela 2.1 apresenta
valores de pn e de n!.
Tabela 2.1: Comparação entre valores do número de multiplicações requeridas no
cálculo do determinante e o fatorial da ordem da matriz
Ordem da matriz, n pn n!
1 0 1
2 2 2
3 9 6
4 40 24
5 205 120
6 1.236 720
7 8.659 5.040
8 69.280 40.320
9 623.529 362.880
10 6.235.300 3.628.800

Podemos utilizar conhecimentos de Matemática Discreta e mostrar que


n −1
n!
pn = ∑ ( n − k)! , comprovando, assim, que
k =1
pn ≥ n!.

A seguir, enunciaremos algumas propriedades de determinante.

Proposição 2.1: Sejam A e B matrizes quadradas de ordem n.

a) Se todos os elementos da iésima linha (ou coluna) de A forem nulos, então


det( A) = 0.

– 40 –
b) det( A) = det( AT ) .

c) det( AB) = det( A) × det( B).

A última propriedade nos proporcionará, adiante, um método ef iciente


para o cálculo do determinante de uma matriz, que se baseia na sua decom-
posição em duas matrizes triangulares. Uma def inição importante, que nos
auxiliará na compreensão de outras def inições que têm conexão com determi-
nante, é a de submatriz principal líder.

Def inição 2.5 (Principais líderes): Seja A uma matriz quadrada de ordem n


com elementos reais. Para k = 1, 2,  , n, a kaésima submatriz principal líder
de A é a matriz Ak , obtida por meio da interseção das primeiras k linhas e
colunas de A.
Para evitar ambiguidade na obtenção das submatrizes principais líderes,
é necessário supor que a permutação de linhas e colunas da matriz A não seja
admitida.
A f igura 2.2 ilustra como são obtidas as submatrizes principais líderes de
uma matriz de ordem 4 × 4.

A1 A2 A3 A4

Figura 2.2: Submatrizes principais líderes de uma matriz A de ordem 4 em hachura

Consequentemente, a enésima principal líder, An , é a própria matriz A.


Os determinantes das submatrizes principais líderes são conhecidos
como menores principais líderes.

Exemplo 2.2: Considere a matriz

 4 −1 2
A =  1 4 1 .
 3 3 2

– 41 –
Determine as submatrizes principais líderes de A e os respectivos deter-
minantes.

Suprimimos a 2a linha e a 2a coluna, e também a 3a linha e a 3a coluna da


matriz A, e obtemos a principal líder, A1:

A1 = [4],

o seu determinante é

det( A1 ) = 4.

Suprimimos a 3a linha e a 3a coluna da matriz A, e obtemos a principal líder, A2:

 4 −1
A2 =  ,
1 4 

o seu determinante é

det( A2 ) = 4 × 4 − ( −1) × 1 ⇒ det( A2 ) = 17.

A principal líder A3 é a própria matriz A:

 4 −1 2
A3 = A =  1 4 1 .
 3 3 2

O determinante de A3 pode ser obtido do seguinte modo:

det( A3 ) = 4 × 4 × 2 + 3 × 1 × 2 + 1 × ( −1) × 3 − 3 × 4 × 2 − ( −1) × 1 × 2 − 4 × 3 × 1 = 1 .

A def inição 2.5 conduz a outras def inições que são muito úteis em Pro-
gramação Matemática Não Linear, que pode ser considerado um ramo da
Pesquisa Operacional. Uma dessas def inições é dada a seguir.

– 42 –
Def inição 2.6 (Matriz def inida positiva): Seja A uma matriz de números
reais,­ quadrada, n × n , e simétrica. A matriz A é def inida positiva quando
para todo x ∈ℜ n, com x não nulo, xT Ax > 0.

Em particular, uma matriz simétrica real 2 × 2 ,


 a11 a12 
A=  ,
 a21 a22 
é def inida positiva se,

 a11 a12   x1 
xT Ax = [ x1 x2 ]  = a x 2 + a22 x22 + 2β x1 x2 > 0, sendo a12 = a21 =b.
 a21 a22   x2  11 1

 2 1
Exemplo 2.3: Mostre que a matriz A =   é def inida positiva.
1 1
Suponhamos um vetor não nulo, x = [x1 x2]T, isto é, se uma das compo-
nentes for igual a zero, a outra terá de ser diferente de zero. Então,

 2 1  x1 
xT Ax = [ x1 x2 ]    x  = 2 x1 + x2 + 2 x1 x2 .
2 2

 1 1  2
Completando os quadrados, obtemos:

xT Ax = 2 x12 + x22 + 2 x1 x2 = x12 + ( x1 + x2 )2 > 0 .

A última expressão mostra claramente que, para quaisquer x1 e x2 reais


diferentes de zero, o produto matricial xT Ax será positivo. Isto implica que a
 2 1
matriz A =   é def inida positiva.
1 1
Um fato que relaciona uma matriz def inida positiva e suas submatrizes
principais líderes é expresso na proposição 2.2.

Proposição 2.2: Uma matriz def inida positiva possui todos os determinantes


dos principais líderes positivos.

– 43 –
No estudo de funções quadráticas de ordem n, a def inição de matriz
def inida positiva encontra muitas aplicações interessantes. A seguir são dados
dois exemplos para ilustrar essas aplicações.

Exemplo 2.4: Represente graf icamente a função quadrática def inida como a


seguir,

 2 1  x1 
f : ℜ2 → ℜ , f ( x1 , x2 ) = [ x1 x2 ]     = 2 x1 + x2 + 2 x1 x2 .
2 2

1 1  x2 

A figura 2.3 ilustra o gráfico da função deste exemplo.

Figura 2.3: Gráf ico da função do exemplo 2.4

O próximo exemplo refere-se a uma função quadrática cuja matriz não


é def inida positiva.

Exemplo 2.5: Represente graf icamente a função quadrática def inida como a


seguir:

– 44 –
 −1 1   x1 
f : ℜ2 → ℜ2 , f ( x1 , x2 ) = [ x1 x2 ]    x  = − x1 − 4 x2 + 2 x1 x2 .
2 2

 1 −4  2
Escrevemos a função completando os quadrados, o que comprova que
ela será sempre negativa, independentemente dos valores que x1 e x2 assu-
mirem, para x 2 não nulo,

− x12 − 4 x22 + 2 x1 x2 = −(2 x2 − 12 x1 )2 − 43 x12 < 0 .

Figura 2.4: Gráf ico da função do exemplo 2.5

No exemplo em que a matriz é def inida positiva, a concavidade da fun-


ção está voltada para cima, conforme podemos ver na figura 2.3, enquanto
que, no exemplo correspondente ao caso em que a matriz não é def inida po-
sitiva – na verdade, a matriz é def inida negativa –, a concavidade da função
está voltada para baixo (figura 2.4).
Do fato de a matriz ser def inida positiva há importantes implicações
para estudos em diversas aplicações da Pesquisa Operacional. Tais implica-
ções, porém, não serão tratadas neste livro.

– 45 –
A seguir, trataremos da obtenção da inversa de uma matriz.

2.1.3 A inversa de uma matriz

Def inição 2.7 (Matriz inversa): Seja A uma matriz quadrada de ordem n.


A é invertível quando existe uma única matriz A−1 , denominada matriz inver-
sa de A, tal que

AA−1 = A−1 A = I.

Exemplo 2.6: Considere


1 0 
A=  .
0 2

Calcule A−1 , se existir.

1 0   b11 b12  1 0 
AB = I ⇒   = ⇒
0 2  b21 b22  0 1

 b11 b12  1 0 
⇒  = .
 2b21 2b22  0 1

Por igualdade de matrizes, obtemos

b11 = 1, b12 = 0, b21 = 0 e b22 = 1


2 .

Logo,
1 0  1 0  1 0 
BA =  1  0
= =I.
0 2  2 0 1

Então,
1 0
A−1 = B =  
0
1
2

é a única matriz inversa de A.

– 46 –
A matriz A = [0] não é invertível, uma vez que para AA−1 = 0 A−1 ≠ I = 1,
portanto, não existe A–1.
Consideremos as matrizes A , n × n , e B , n × n , e A–1 e B−1 as matrizes
inversas de A e B, respectivamente. Então,

( AB) −1 = B−1 A−1.

Com efeito, usando a associatividade de matrizes, o fato de B ser inver-


tível e de AI = A,

( AB)( B−1 A−1 ) = A( BB−1 ) A−1 = A( I ) A−1 = I

e, de maneira análoga,

( B−1 A−1 )( AB) = B−1 ( A−1 A) B = B−1 ( I ) B = B−1 B = I .

Além disso,
( A−1 ) −1 = A.

Com efeito,
A−1 A = I = A A−1.

Isto é, a matriz inversa da matriz A−1 é a matriz A.

2.1.4 Inversa de uma matriz e determinante

Na def inição de determinante surgiu o número mostrado em (2.8),

∆ ij = ( −1) i + j Mij, (2.8)

em que ∆ ij é denominado cofator do elemento aij .

Seja A uma matriz quadrada de ordem n. Chamamos de matriz dos


cofatores, denotada por A, a matriz obtida de A, em que cada elemento é o
cofator de seu respectivo em A, isto é:

– 47 –
 ∆11 ∆12  ∆1n 
∆ ∆ 22  ∆ 2 n 
A= .
21
     
 
 ∆ n1 ∆ n2  ∆ nn 

Def inição 2.8 (Matriz adjunta): Seja A uma matriz quadrada de ordem n.


Def inimos a matriz adjunta de A, denotada por adj A, como

adj A = AT .

Exemplo 2.7: Considere a matriz

1 1
A= .
 2 1

Calcule a matriz adjunta de A.

Temos que
∆11 = ( −1)1+1 M11 = 1 × det(1) = 1,

∆12 = ( −1)1+ 2 M12 = ( −1) × det(2) = −2,

∆ 21 = ( −1)2+1 M21 = ( −1) × det(1) = −1,


e
∆ 22 = ( −1)2+ 2 M22 = 1 × det(1) = 1.

Então, a matriz dos cofatores é

 1 −2
A= .
 −1 1 
Portanto,

 1 −1
adj A = AT =  .
 −2 1 

– 48 –
O próximo resultado relaciona determinante e matriz adjunta.

Teorema 2.1: Seja A uma matriz quadrada de ordem n. Então,

A adj A = det( A) I .

Agora, relacionamos determinante e matriz inversa, através do teorema


clássico a seguir.

Teorema 2.2: Uma matriz quadrada A é invertível se, e somente se, det( A) ≠ 0.

Os teoremas 2.1 e 2.2 propiciam um método de obtenção da inversa de


uma matriz, a saber:
adj A
A−1 = . (2.9)
det( A)

A expressão (2.9) para cálculo da inversa de uma matriz pode ser


utilizada para solucionar um sistema linear algébrico de poucas equações e
incógnitas. Isto será tratado na seção a seguir. Nas seções posteriores, serão
apresentados métodos computacionalmente mais ef icientes para resolver sis-
temas lineares de equações algébricas.

2.2 Sistemas lineares algébricos de pequeno porte

Para sistemas de pequeno porte, o cálculo do determinante é reali-


zável com um número razoável de operações aritméticas. Portanto, tais
sistemas lineares algébricos podem ser resolvidos utilizando-se a regra de
Cramer.
Seja A uma matriz quadrada de ordem n invertível. Considere-se b ∈ R n.
O sistema linear

Ax = b (2.10)

pode ser expresso como


x = A−1b, (2.11)

– 49 –
uma vez que A é invertível e, consequentemente,

adj A b AT b
x= = , (2.12)
det( A) det( A)

usando-se (2.9) e a def inição de matriz adjunta. A expressão (2.12) para a re-


solução do sistema de equações (2.10) é reconhecida como a regra de Cramer.

Desenvolvendo (2.12),

 ∆11 ∆ 21  ∆ n1   b1 
 ∆ 22  ∆ n2   b2 
1  ∆12   ,
x=
det( A)        
  
 ∆1 n ∆ 2 n  ∆ nn   bn 

para j = 1, 2,  , n,

n n
1 1
xj = ∑
( ∆ ij bi ) =
det( A) i =1 det( A) i =1 ∑
( bi ( −1) i + j Mij ) .

De acordo com a def inição de determinante, concluímos que, para se


obter a incógnita xj, basta calcular o determinante da matriz A após a troca da
jotaésima coluna dessa matriz pelo vetor termo independente, b, e dividir o
resultado encontrado pelo det( A). De modo idêntico, devemos proceder para
todas as demais incógnitas.
As igualdades a seguir ilustram o mecanismo de solução de um sistema
de três incógnitas pela aplicação da regra de Cramer, a saber:

  b1 a12 a13    a11 b1 a13    a11 a12 b1 


det   b2 a22 a23  det   a21 b2 a23  det   a21 a22 b2 
     
  b a    a    a b3 
 3 32 a33   31 b3 a33   31 a32
x1 = , x2 = , x3 = .
det( A) det( A) det( A)

Tendo em vista a complexidade dos cálculos de determinantes e, por


conseguinte, dos métodos de obtenção da inversa de uma matriz e de solução

– 50 –
de sistemas por Cramer, estudados nas seções anteriores, nos sentimos compe-
lidos a estudar formas mais ef icientes de executar essas operações.
Os métodos computacionalmente mais ef icientes que os estudados até
agora baseiam-se em operações elementares sobre matrizes, que serão abor-
dados a seguir.

2.3 Operações elementares sobre matrizes

Podemos realizar as seguintes operações, chamadas elementares, sobre


as linhas ou as colunas de uma matriz.

1. ( li ↔ l j ) Permutação das iésima e jotaésima linhas. Por exemplo:

1 0 1 0
 4 −1 l ↔ l ~  −3 4  .
  2 3
 −3 4   4 −1

2. ( li ← α li ) Multiplicação da iésima linha por um número não nulo α . Por


exemplo:

1 0  1 0
 4 −1 l ← −3 × l ~  −12 3 .
  2 2
 −3 4   −3 4

3. ( li ← li + α l j ) Substituir a iésima linha pela soma da iésima linha com a


jotaésima linha multiplicada por um número não nulo α . Por exemplo:

1 0 1 0
  ~  7 −1 .
 4 −1 l2 ← l2 + 3 × l1
 −3 4   −3 4 

Resumindo, as operações elementares realizadas sobre uma matriz são: (a)


a permutação de duas linhas; (b) a multiplicação de uma linha por uma constan-
te diferente de zero; e (c) a adição de uma linha a um múltiplo de outra linha.

– 51 –
Ao utilizarmos as operações elementares, podemos fazê-lo com um pro-
pósito previamente def inido e, neste caso, haverá regras a serem cumpridas.
Por exemplo, o objetivo pode ser verif icar se dois, dentre três vetores dados,
são linearmente independentes. Neste caso, as operações serão usadas para
fazer emergir vetores canônicos, conforme mostra o exemplo 2.8.

Exemplo 2.8: Verif ique, através de operações elementares, se existem dois ve-


tores linearmente independentes dentre os três vetores dados:

 2 1 1
u =  4 , v =  2 e w =  5 .
   
6   3  4

Disporemos os três vetores na forma de uma matriz e efetuaremos ope-


rações elementares sobre ela, assim:

 2 1 1
 4 2 5 .
 
6 3 4

Inicialmente, o nosso propósito será obter, com operações elementares,


os vetores [1 0 0]T e [0 1 0]T nos lugares das duas primeiras colunas da
matriz. Se tivermos sucesso, os vetores u e v são linearmente independentes;
caso contrário, são dependentes.

 2 1 1 l1 ← 12 l1 1 1
2
1
2
 4 2 5 ~ 4 2 5  ,
  
6 3 4 6 3 4 

1 1
2
1
2 1 1
2
1
2
4 2 5  l2 ← l2 − 4 × l1 ~ 0 0 3  .

6 3 4  l3 ← l3 − 6 × l1 0 0 1 

Podemos ver que a hipótese de os vetores u e v serem linearmente in-


dependentes não se sustentou, porque não foi possível obter vetores canônicos
nos lugares de suas colunas. O próximo passo é testar, de modo análogo, se
dois outros vetores – u e w – são linearmente independentes, buscando obter

– 52 –
vetores canônicos nos lugares de suas colunas. Aproveitando os cálculos já
realizados, temos:

1 1
2
1
2 1 1
2
1
2
0 0 3  l2 ← 13 l2 ~ 0 0 1  ,
 
0 0 1  0 0 1 

1 1
2
1
2  l1 ← l1 − 12 l21 1
2 0
0 0 1  ~ 0 0 1 .

0 0 1  l3 ← l3 − l2 0 0 0

A observação das colunas 1 e 3, que correspondem aos vetores u e w,


comprova que tais vetores são linearmente independentes. De fato, na relação
entre u e w mostrada a seguir

 2 1
 4 = α  5  ,
   
6   4

não existe um número real α que atenda à igualdade.

A lição que f ica do exemplo 2.8 é que as operações elementares foram


empregadas com um propósito bem def inido – obter vetores canônicos – o
que conduziu à realização de operações sobre as linhas da matriz em torno de
elementos pivôs: o número 2 na primeira parte do exemplo e o número 3 na
segunda, foram os pivôs usados.
A seguir estabeleceremos a def inição de equivalência de matrizes.

Def inição 2.9 (Matriz linha equivalente): Sejam A e B matrizes m × n. B é


linha equivalente a A quando B é obtida de A através de um número f inito de
operações elementares sobre as linhas de A.

Exemplo 2.9: Considere


1 0
A =  4 −1 .
 −3 4 

– 53 –
Encontre uma matriz B linha equivalente a A.

 1 0  l1 ↔ l2  4 −1  4 −1  4 −1


A =  4 −1 ~ 1 0
  ~  1 0  l ← − l ~  −1 0  = B.
  2 2  
 −3 4   −3 4  l3 ← l3 + 2 × l2  −1 4   −1 4 

Neste caso, podemos dizer que:

1 0  4 −1
 4 −1 ~  −1 0  .
 
 −3 4   −1 4 

Informações importantes sobre matrizes podem ser extraídas por meio


da realização de operações elementares sobre suas linhas. Por exemplo, quan-
do precisamos verif icar se há equações redundantes entre as equações lineares
algébricas que compõem um sistema. Um outro problema é saber se uma
dada matriz quadrada possui ou não inversa. Nesses casos e em muitas outras
situações, a forma escalonada de uma matriz A, m × n, será muito útil.

2.3.1 A forma escalonada

Def inição 2.10 (Matriz na forma escalonada): Matriz escalonada é aquela em


que o primeiro elemento não nulo de cada uma de suas linhas está à esquerda
do primeiro elemento não nulo de cada uma de suas linhas subsequentes. Em
decorrência disso, as linhas nulas, se houver, estão abaixo das demais.
As matrizes
1 3 7 2
0 2 5 1 e 8 3 0 2
  0 2 5 1 
0 0 0 3  

são matrizes escalonadas, enquanto a matriz

 8 3 0 2
0 0 0 0 
 
1 2 5 1

– 54 –
não é escalonada, porque o primeiro elemento não nulo da primeira linha não
está à esquerda do primeiro elemento não nulo da terceira linha e, também,
porque a segunda linha é nula enquanto a terceira não o é.

Exemplo 2.10: Obtenha a forma escalonada da matriz

 −1 2 3 0 1
A =  4 −1 1 4 2 .
 3 1 4 4 3

Iniciaremos anulando os elementos da primeira coluna que estão abaixo


do elemento da posição (1,1), usando l2 ← l2 + 4 × l1

 −1 2 3 0 1  −1 2 3 0 1
 4 −1 1 4 2 l ← l + 4 × l ~  0 7 13 4 6  ,
  2 2 1  
 3 1 4 4 3  3 1 4 4 3

e l3 ← l3 + 3 × l1,

 −1 2 3 0 1  −1 2 3 0 1
 0 7 13 4 6  ~  0 7 13 4 6  .
 
 3 1 4 4 3 l3 ← l3 + 3 × l1  0 7 13 4 6 

Em seguida, anulamos os elementos da segunda coluna que estão abaixo


do elemento da posição (2,2), usando l3 ← l3 − 1 × l2

 −1 2 3 0 1
 0 7 13 4 6  .
 
 0 0 0 0 0 

A matriz

 −1 2 3 0 1
 0 7 13 4 6 
 
 0 0 0 0 0 

é, portanto, a forma escalonada da matriz A.

– 55 –
Muitas vezes, é preciso utilizar a operação de permutação de linhas da
matriz para obtermos a forma escalonada. Vejamos o exemplo a seguir.

Exemplo 2.11: Obtenha a forma escalonada da matriz

1 4 2
A =  −2 −8 −4 .

 3 12 10 

Multiplicamos a primeira linha por 2 e adicionamos o resultado à segun-


da linha ( l2 ← l2 + 2 × l1 ), obtendo:

1 4 2 
0 0 0  .
 
 3 12 10 

Permutamos as linhas 2 e 3 ( l2 ↔ l3 ):

1 4 2 
 3 12 10  .
 
0 0 0 

Em seguida, realizamos a operação elementar l2 ← l2 − 3 × l1 para f inal-


mente obtermos a forma escalonada
 1 4 2
0 0 4 .
 
0 0 0 

Com a forma escalonada, conforme def inida e ilustrada através de


exemplos, estamos a um passo da def inição de forma escalonada reduzida.
A partir da forma escalonada de uma matriz, obtém-se a forma escalonada
reduzida do seguinte modo: tornamos os primeiros elementos não nulos de
cada linha iguais à unidade e anulamos os elementos que estiverem acima
desses na mesma coluna.
Vamos ao exemplo.

– 56 –
Exemplo 2.12: Obtenha a forma escalonada reduzida da matriz

 −1 2 3 0 1
A =  4 −1 1 4 2 .
 3 1 4 4 3

Partindo da forma escalonada obtida no exemplo 2.10, temos:

 −1 2 3 0 1 l1 ← −1 × l1 1 −2 −3 0 −1
 0 7 13 4 6  l ← 1 × l ~ 0 1 13 4 6 .
  2 7 2  7 7 7
 0 0 0 0 0  0 0 0 0 0 

Anulando-se os elementos acima do elemento unitário da posição (2,2),


temos:

1 −2 −3 0 −1 l1 ← l1 + 2 × l2 1 0 5
7
8
7
5
7
0 1 13 6  ~ 0 1 
7.
4 13 4 6
 7 7 7 7 7
0 0 0 0 0  0 0 0 0 0 

A matriz

1 0 5
7
8
7
5
7
0 1 13 4 6 
 7 7 7
0 0 0 0 0 

é, portanto, a forma escalonada reduzida da matriz A.


Na próxima seção, será fornecida uma aplicação da forma escalonada
que acabamos de estudar.

2.3.2 Posto de uma matriz

Em diversas situações nos deparamos com a necessidade de analisar se


uma matriz quadrada possui inversa, ou se um sistema linear algébrico de
equações possui solução única ou uma inf inidade de soluções. Essas questões
são resolvidas com base na def inição de posto de uma matriz.
Para estabelecer as def inições nesta seção, serão supostos conhecimentos
prévios em Álgebra Linear, em especial os conceitos de espaço vetorial, de-

– 57 –
pendência linear e subespaços de uma matriz. Além disso, considere a trans-
formação linear def inida pela matriz A ∈ℜ m× n. Dois subespaços importantes
do espaço vetorial ℜ n estão associados com essa transformação: o espaço nulo
de A, def inido por

N ( A) = { x ∈ℜ n ; Ax = 0}

e seu complemento ortogonal, o espaço linha de A, def inido por

R( AT ) = { x ∈ℜ n ; x = AT z, z ∈ℜ m }.

Segue-se que qualquer vetor v ∈ℜ n pode ser unicamente decomposto –


soma direta – como v = v p + v p, em que v p ∈ N ( A) e v p ∈ R( AT ).

Def inição 2.11 (Posto de uma matriz): A dimensão r do espaço linha de A é


chamada de posto de A.
Para se caracterizar precisamente o espaço linha de uma matriz A, m × n,
é necessário encontrar um conjunto linearmente independente (LI) de vetores
linhas dessa matriz. O número desses vetores LI é a dimensão do espaço linha
e, portanto, o posto de A. O procedimento para se obter a dimensão do espaço
linha consiste em determinar a forma escalonada da matriz. Regra geral: o
posto de A é o número de linhas não nulas da matriz na forma escalonada.
Façamos o exemplo a seguir.

Exemplo 2.13: Obtenha o posto da matriz

 2 3 −1
A =  4 −2 2  .
6 1 1 

Efetuamos sobre A as operações elementares sobre as linhas de A, como


indicado a seguir:

 2 3 −1  2 3 −1
 4 −2 2  l ← l − 2 × l ~ 0 −8 4  ~
  2 2 1  
6 1 1  6 1 1  l3 ← l3 − 3 × l1

– 58 –
 2 3 −1  2 3 −1
~ 0 −8 4  ~ 0 −8 4  .
 
0 −8 4  l3 ← l3 − 1 × l2 0 0 0 

Concluído o escalonamento, verif icamos que as linhas [2 3 −1] e


[0 −8 4] são linearmente independentes. Portanto, o posto de A é 2. De
fato, observando as linhas da matriz A é possível ver que a terceira linha é a
soma das duas primeiras.
Uma conclusão interessante é que a matriz A do exemplo 2.13 não possui
inversa, porque seu posto (2) é inferior ao seu número de linhas (3). Deno-
tamos por ‘posto def iciente’ uma matriz cujo posto é inferior ao número de
linhas (ou colunas).
Uma aplicação prática da forma escalonada reduzida de uma matriz
ocorre quando desejamos determinar o espaço coluna dessa matriz. Tal apli-
cação também está associada à determinação de posto.

Def inição 2.12 (Espaço coluna de uma matriz): Seja A uma matriz m × n.


Consideremos a transformação linear T, def inida por

T : Vn (ℜ) → Vm (ℜ),

tal que

T ( x) = Ax .

O espaço coluna da matriz A é o subespaço R(A) de Vm (ℜ) gerado pelos veto-


res colunas de A, que identif icamos com o conjunto

Imagem T = { Ax ; x ∈ Vn (ℜ)}.

Em outras palavras, o conjunto Imagem T é o subespaço de Vm (ℜ) ge-


rado pelos vetores colunas de A. Diante disso, a forma escalonada reduzida
de uma matriz nos informa os vetores da base do espaço coluna da mesma
matriz.
Façamos um exemplo.

– 59 –
Exemplo 2.14: Determine os vetores da base do espaço coluna da matriz

 1 −2 1 0 1
A =  −1 1 0 −2 2 .
 2 0 3 −2 4

O nosso objetivo é eliminar um a um os vetores linearmente depen-


dentes, até que os vetores restantes formem um conjunto linearmente inde-
pendente. A maneira sistemática de se fazer isto é obter a forma escalonada
reduzida da matriz A. Depois de aplicar operações elementares sobre as linhas
da matriz A, com vistas à obtenção da forma escalonada reduzida, chegamos
à seguinte matriz linha equivalente:

 1 −2 1 0 1 1 0 0 2 − 11 5 
 −1 1 0 −2 2 ~ 0 1 0 0 − 1  .
   5
 2 0 3 −2 4 0 0 1 −2 14 5 

Observamos que os vetores canônicos emergiram nas três primeiras co-


lunas da matriz. Isto signif ica que os vetores

1  −2 1


 −1 ,  1  e 0 
     
 2   0   3

são os vetores geradores do espaço coluna da matriz A. Outra observação im-


portante é que são três os vetores. Esse número é o posto da matriz A.
Nas seções posteriores serão discutidas outras aplicações para o posto de
uma matriz.

2.3.3 Matrizes elementares

Def inição 2.13 (Matriz elementar): Matriz elementar é aquela obtida a partir


da matriz identidade, por meio da aplicação de uma operação elementar com
linhas.

A seguir, enunciaremos um resultado sobre matrizes elementares. Aqui,


uma operação elementar com linhas, inversa a uma operação elementar

– 60 –
com linhas efetuada na matriz identidade, signif ica que: para i ≠ j , α ∈ℜ,
α ≠ 0 , li ↔ l j temos li ↔ l j ; li ← α li temos li ← α1 li; li ← li + α l j temos
li ← li − α l j .

Teorema 2.3: Uma matriz elementar Ek é invertível e sua inversa é a matriz


elementar Ek−1, que corresponde à operação elementar com linhas, inversa da
operação efetuada para Ek.

Vamos iniciar a discussão do teorema 2.3 pela apresentação de um


exemplo.

Exemplo 2.15: Considere a matriz identidade de ordem 3. Calcule cada ma-


triz elementar e sua matriz inversa para as operações elementares com linhas
l1 ↔ l2 , l3 ← 9 l 3 e l1 ← l1 + l2 , respectivamente.

Temos, pela def inição de matriz elementar, que

1 0 0  l1 ↔ l2 0 1 0 

I = 0 1 0  ~ 1 0 0 = E1,
0 0 1 0 0 1

1 0 0  1 0 0 

I = 0 1 0  ~ 0 1 0  = E2
0 0 1 l3 ← 9 l3 0 0 9 

e
1 0 0 l1 ← l1 + l2 1 1 0 

I = 0 1 0  ~ 0 1 0 = E3 .
0 0 1 0 0 1

Assim, pelo teorema 2.3, E1 , E2 e E3 possuem matrizes inversas calcu-


ladas da seguinte maneira:

– 61 –
1 0 0  l1 ↔ l2 0 1 0 

I = 0 1 0  ~ 1 0 0 = E1−1,
0 0 1 0 0 1

1 0 0  1 0 0 

I = 0 1 0  ~ 0 1 0  = E2−1
0 0 1 l3 ← 91 l3 0 0 91 
e
1 0 0 l1 ← l1 − l2 1 −1 0 

I = 0 1 0  ~ 0 1 0 = E3−1.
0 0 1 0 0 1

Agora, estamos prontos para desenvolver um método para a determina-


ção da inversa de uma matriz, chamado método de Gauss-Jordan.

2.3.4 O método de Gauss-Jordan

Este método af irma que se A for uma matriz invertível – satisfaz o te-
orema 2.2 – e se uma sequência de operações elementares sobre suas linhas
reduzir A à matriz identidade I, então aquela mesma sequência de operações
sobre as linhas, quando aplicadas a I, produzirá a matriz inversa A−1.

Exemplo 2.16: Considere a matriz

1 2 3
A = 0 1 0  .
1 0 2

Determine a matriz inversa de A.

Empregando o método de Gauss-Jordan, temos a seguinte sequência de


cálculos:

– 62 –
1 2 3 1 0 0
[ A , I ] = 0 1 0 0 1 0  ~
1 0 2 0 0 1 l3 ← l3 − l1

1 2 3 1 0 0  l1 ← l1 − 2l2
~ 0 1 0 0 1 0 ~
0 −2 −1 −1 0 1

1 0 3 1 −2 0
~ 0 1 0 0 1 0 ~
0 −2 −1 −1 0 1 l3 ← l3 + 2l2

1 0 3 1 −2 0
~ 0 1 0 0 1 0 ~
0 0 −1 −1 2 1 l3 ← − l3

1 0 3 1 −2 0  l1 ← l1 − 3l3
~ 0 1 0 0 1 0  ~
0 0 1 1 −2 −1

1 0 0 −2 4 3 
~ 0 1 0 0 1 0  = [ I , A−1 ] .
0 0 1 1 −2 −1
Portanto,
 −2 4 3 
A =  0
−1
1 0  .
 1 −2 −1

No exemplo 2.16, podemos observar que, ao realizarmos a operação ele-


mentar sobre linhas l3 ← l3 − l1, obtemos a matriz elementar E1 e a sua matriz
inversa E1−1, a saber:

– 63 –
 1 0 0 1 0 0 
E1 =  0 1 0  e E1 = 0 1 0  .
  −1

 −1 0 1 1 0 1

Da mesma forma, para l1 ← l1 − 2l2,

1 −2 0  1 2 0 
 
E2 = 0 1 0 e E2 = 0 1 0  ,
−1

0 0 1 0 0 1

para l3 ← l3 + 2l2,

1 0 0  1 0 0 
E3 = 0 1 0  e E3 = 0 1 0  ,
  −1

0 2 1 0 −2 1

para l3 ← − l3,
1 0 0  1 0 0 
 
E4 = 0 1 0  e E4 = 0 1 0  ,
−1

0 0 −1 0 0 −1

e para l1 ← l1 − 3l3 ,

1 0 −3 1 0 3
 
E5 = 0 1 0  e E5 = 0 1 0  .
−1

0 0 1  0 0 1

Assim, considerando o método de Gauss-Jordan, a partir da matriz A,


realizamos a sequência de operações:

E1 A , E2 E1 A , E3 E2 E1 A , E4 E3 E2 E1 A e E5 E4 E3 E2 E1 A = I ,
e, a partir da matriz identidade,
E1 I , E2 E1 I , E3 E2 E1 I , E4 E3 E2 E1 I e E5 E4 E3 E2 E1 I = A−1.

– 64 –
Estamos prontos para estudar métodos ef icientes de solução de sistemas
lineares algébricos.

2.4 Sistemas lineares algébricos

Um sistema de equações lineares com m equações e n incógnitas é um


conjunto de equações do tipo indicado em (2.13)

a11 x1 + a12 x2 +  + a1n xn = b1


a21 x1 + a22 x2 +  + a2 n xn = b2
, (2.13)
        
am1 x1 + am2 x2 +  + amn xn = bm

em que, para todo i = 1, 2,  , m e para todo j = 1, 2,  , n , aij e bi são nú-


meros reais dados.
Uma solução do sistema (2.13) é uma ênupla ordenada da forma
[ x1 x2*  xn* ]T que satisfaça simultaneamente as m equações.
*

Na notação matricial, def inindo

 a11 a12  a1n   b1 


a a22  a2 n  b 
A=   e b=  2 ,
21
      
   
 am1 am2  amn   bm 

devemos encontrar, se existir, um x em ℜ n, tal que

Ax = b. (2.14)

Classif icamos as soluções para o sistema linear (2.13) ou, equivalente-


mente, (2.14), assim:
a) Compatível determinado, isto é, quando admite uma única solução;
b) Compatível indeterminado, isto é, quando admite uma inf inidade de so-
luções; e
c) Incompatível, isto é, quando não admite solução.

– 65 –
Por exemplo, o sistema de equações lineares

2 x1 + x2 = 5

 x1 − 3 x2 = 6

3
é compatível determinado, porque possui uma única solução; ou seja, x =   .
Ainda, o sistema de equação linear  −1

{5 x1 + 3x2 = 15
é compatível indeterminado, porque possui uma inf inidade de soluções, ou seja,

15 − 5 x1
{ x ∈ℜ2 ; x2 = e x1 qualquer}.
3

Finalmente, o sistema de equações lineares

 x1 + 3 x2 + 2 x3 = 7

 2 x1 + x2 − x3 = 5
− x + 2 x2 + 3 x3 = 4
 1
é incompatível, porque o conjunto solução é vazio. Esse fato pode ser com-
provado através de operações elementares sobre a matriz aumentada, [ A, b] ,
conforme mostra o exemplo dado a seguir.
Exemplo 2.17: Considere o sistema

 x1 + 3 x2 + 2 x3 = 7

 2 x1 + x2 − x3 = 5.
− x + 2 x2 + 3 x3 = 4
 1
Mostre que esse sistema é incompatível.
A matriz aumentada do sistema é

 1 3 2 7
[ A, b] =  2 1 −1 5  .
 −1 2 3 4

– 66 –
Efetuamos sobre [ A, b] as seguintes operações elementares:

 1 3 2 7
[ A, b] =  2 1 −1 5  ~
 −1 2 3 4 l3 ← l3 + l1

1 3 2 7 
~  2 1 −1 5  l2 ← l2 − 2 × l1 ~
0 5 5 11

1 3 2 7 
~ 0 −5 −5 −9 ~
0 5 5 11  l3 ← l3 + l2

1 3 2 7 
~ 0 −5 −5 −9 .
0 0 0 2 

Obtemos assim um sistema linha equivalente e, então, podemos rees-


crever o sistema de equações original a partir da forma escalonada da matriz
aumentada [ A, b],

 x1 + 3 x2 + 2 x3 = 7

 − 5 x2 − 5 x3 = −9 .
 0 x3 = 2

Do sistema linha equivalente, podemos concluir que não existe valor


para x3 que satisfaça a última equação. Portanto, o sistema de equações é in-
compatível, ou seja, seu conjunto solução é vazio.
Dizemos que dois sistemas de equações lineares são equivalentes, quan-
do possuem o mesmo conjunto solução.

– 67 –
2.4.1 Sistemas homogêneos

Um sistema de equações lineares com m equações e n incógnitas chama-


se homogêneo quando é da forma

Ax = 0.

Observemos que x = 0 ∈ℜ n é sempre uma solução do sistema homogê-


neo, denominada solução trivial.
Um sistema homogêneo pode apresentar-se em uma das seguintes situa­
ções: (a) o sistema Ax = 0 possui uma única solução, a solução trivial; ou (b) tal
sistema possui uma inf inidade de soluções, inclusive a solução trivial.
Antes de passarmos aos exemplos, considere a proposição enunciada a
seguir.

Proposição 2.3: O espaço solução de um sistema homogêneo Ax = 0 tem di-


mensão n − r , em que n é o número de incógnitas e r é o posto da matriz A
de coef icientes. Como consequência, um sistema homogêneo Ax = 0 com n
incógnitas tem solução única x = 0 ∈ℜ n se, e somente se, o posto de A for
igual a n.

Dessa proposição, observamos que, se r = n, a dimensão do espaço


nulo de A, que é o conjunto solução do sistema homogêneo Ax = 0 , é igual
a n − n = 0 , quer dizer, o caso indicado em (a). O caso indicado em (b) ocorre
quando r < n.

Exemplo 2.18: Verif ique se o seguinte sistema homogêneo possui solução úni-


ca x = 0 ∈ℜ3 .

 x1 + 2 x2 + x3 = 0

 − x1 + x2 + 2 x3 = 0.
x − x2 − x3 = 0
 1

Vamos calcular o posto da matriz de coef icientes, obtendo a forma esca-


lonada, a saber:

– 68 –
1 2 1 1 2 1  1 2 1
 −1 1 2  l ← l + l ~ 0 3 3  0 3 3 .
  2 2 1    
 1 −1 −1 l3 ← l3 − l1 0 −3 −2 l3 ← l3 + l2 0 0 1
~

Concluímos que o posto da matriz de coef icientes é 3, portanto, igual


ao número de linhas da matriz. Isto signif ica que a única solução do sistema
é x1 = x2 = x3 = 0 . Podemos concluir também que as colunas (e as linhas) da
matriz de coef icientes são linearmente independentes.

Exemplo 2.19: Verif ique se o seguinte sistema homogêneo possui solução única.

 x1 + 2 x2 − 3 x3 = 0

2 x1 + x2 = 0.
x − x2 + 3 x3 = 0
 1
Primeiramente, vamos calcular o posto da matriz de coef icientes para
verif icar se a única solução do sistema é a trivial ou não. Assim,

1 2 −3 1 2 −3 1 2 −3


2 1 0  l ← l − 2 × l ~ 0 −3 6  ~ 0 −3 6  .
  2 2 1  
1 −1 3  l3 ← l3 − l1 0 −3 6  l3 ← l3 − l2 0 0 0 

A forma escalonada mostra que o posto da matriz de coef icientes é 2


(matriz ‘posto def iciente’), portanto, o sistema homogêneo possui uma inf ini-
dade de soluções.
No restante deste capítulo estaremos interessados na solução do sistema
(2.13), ou (2.14), para m = n, ou seja, a matriz de coef icientes é quadrada.
Dada uma matriz quadrada com coef icientes reais, A, n × n, e dado um
vetor b em ℜ n, queremos encontrar, se existir, x em ℜ n, tal que Ax = b. Se A
for invertível, então o sistema (2.13), ou (2.14), para m = n, possui uma única
solução. Todavia, é desaconselhável calcular explicitamente a matriz inversa
A−1 e, em seguida, efetuar o produto A−1b, uma vez que o número de opera-
ções envolvidas é grande, principalmente para sistemas de grande porte, ou
seja, sistemas que envolvem grande número de equações e incógnitas.
Inicialmente, estudaremos alguns problemas com soluções, digamos,
que podem ser facilmente obtidas.

– 69 –
2.4.2 Sistemas triangulares

Seja o sistema linear Ax = b em que A, n × n , é triangular inferior, com


elementos da diagonal diferentes de zero, e b em ℜ n. Escrevendo as equa-
ções desse sistema, temos:

a11 x1 = b1
a21 x1 + a22 x2 = b2
(2.15)
        
an1 x1 + an2 x2 +  + ann xn = bn .

Supondo todos os coef icientes aij não nulos, tais que i = j, a solução do


sistema triangular inferior (2.15) é calculada pelas substituições sucessivas, a saber:

b1 b −a x b − a x − a x −  − ann−1 xn−1
x1 = , x2 = 2 21 1 ,  , xn = n n1 1 n2 2 .
a11 a22 ann

b1
Regra geral: iniciando-se com x1 = a11 , obtém-se a incógnita xi pelo soma-
tório indicado em (2.16),

i −1

∑ (b − a x )
j =1
i ij j
(2.16)
xi = , para i = 2,  , n .
aii

O seguinte algoritmo resolve o sistema triangular inferior (2.15).


Algoritmo 2.1: Substituições sucessivas ou diretas
Dados: uma matriz triangular inferior com elementos da diagonal diferen-
tes de zero, A, n × n, um vetor b em ℜ n e n.
x1 ← b1 a11
Para i = 2,  , n
soma ← 0
Para j = 1,  , i − 1
soma ← soma + aij x j
xi ← ( bi − soma) aii

– 70 –
Exemplo 2.20: Calcule a solução do sistema triangular inferior

 1 0 0   x1   1 
 2 3 0  x  =  0 
  2  
 4 3 6   x3   −1
usando o algoritmo de substituições sucessivas.
Usando o algoritmo 2.1, temos:
x1 = 1 1 = 1
i = 2 , soma = 0 , j = 1 , soma = 0 + 2 × 1 = 2 , x2 = (0 − 2) 3 = −2 3
i = 3 , soma = 0 , j = 1 , soma = 0 + 4 × 1 = 4 ;
j = 2 , soma = 4 + 3 × ( −2 3) = 2 , x3 = ( −1 − 2) 6 = −1 2
\ x* = [1 −2 3 −1 2]T .

Agora, seja o sistema linear Ax = b em que A, n × n, triangular supe-


rior, com elementos da diagonal diferentes de zero, e b em ℜ n. Escrevendo as
equações desse sistema, temos:
a11 x1 + a12 x2 +  + a1n xn = b1
a22 x2 +  + a2 n xn = b2
(2.17)
    
ann xn = bn .

Supondo todos os coeficientes aij não nulos, tais que i = j, a solução do


sistema triangular superior (2.17) é calculada pelas substituições retroativas,
a saber:

bn b − a x −  − a2 n xn b − a x −  − a1n xn
xn = ,  , x2 = 2 23 3 , x1 = 1 12 2 .
ann a22 a11

bn
Regra geral: iniciando-se com xn = ann , obtém-se a incógnita xi pelo soma-
tório indicado em (2.18),

∑ (b − a x )
j = i +1
i ij j

xi = , para i = n − 1,  ,1. (2.18)


aii

– 71 –
Algoritmo 2.2: Substituições retroativas ou reversas
Dados: uma matriz triangular superior com elementos da diagonal dife-
rentes de zero, A, n × n, um vetor b em ℜ ne n.
xn ← bn ann
Para i = n − 1,  ,1
soma ← 0
Para j = i + 1,  , n
soma ← soma + aij x j
xi ← ( bi − soma) aii

Exemplo 2.21: Calcule a solução do sistema triangular superior

1 0 0 1   x1   1 
0 2 3 4   x2   2 
   =  
0 0 1 0   x3   −4
    
0 0 0 −2  x4   0 

usando o algoritmo de substituições retroativas.


Usando o algoritmo 2.2, temos:
x4 = 0 ( −2) = 0
i = 3 , soma = 0 , j = 4 , soma = 0 + 0 × (0) = 0 , x3 = ( −4 − 0) 1 = −4
i = 2 , soma = 0 , j = 3 , soma = 0 + 3 × ( −4) = −12 ;
j = 4 , soma = −12 + 4 × (0) = −12 , x2 = (2 − ( −12)) 2 = 7
i = 1 , soma = 0 , j = 2 , soma = 0 + 0 × (7) = 0 ;
j = 3 , soma = 0 + 0 × ( −4) = 0 ;
j = 4 , soma = 0 + 1 × (0) = 0 , x1 = (1 − 0) 1 = 1

\ x* = [1 7 −4 0]T .

Finalmente, trataremos o problema (2.13), ou (2.14), para m = n, com a


hipótese de o determinante da matriz A ser diferente de zero e que a matriz
de coef icientes não está expressa na forma triangular.

– 72 –
2.4.3 O método de eliminação de Gauss

O método de eliminação de Gauss consiste em transformar um siste-


ma de equações lineares, Ax = b, através de operações elementares, em um
sistema triangular superior equivalente. A partir daí, usa-se o algoritmo de
substituições retroativas.
A obtenção do sistema equivalente é feita operando-se sobre as linhas
da matriz aumentada [ A, b] objetivando-se sempre anular os elementos de
uma dada coluna que estão imediatamente abaixo do elemento da diagonal,
designado como pivô. Esse procedimento é repetido para as primeiras n − 1
colunas do sistema.
Usaremos aijk para denotar o coef iciente aij da matriz A no f inal da etapa k
e bik para denotar a iésima coordenada do vetor b no f inal da etapa k. A etapa k
é a fase em que se elimina a variável xk nas equações k + 1, k + 2,  , n. Supomos
que det( A) ≠ 0. Assim, podemos reescrever o sistema de equações lineares de for-
ma que o elemento a11 = a110 seja diferente de zero:

 a110 a120  a10n b10 


 0 0

a a22  a20n b20 
[ A, b] = [ A , b ] =  21
0 0
.
    
 
 an01 an0 2  ann
0
bn0 

Na etapa 1, eliminamos a variável x1 das equações i = 2,  , n , sub-


a0
traindo da equação i a primeira equação multiplicada por mi1 = i1 0 , para
a11
i = 2,  , n, em que a11 é denominado pivô da etapa 1. Ao f inal dessa etapa,
0

obteremos a matriz aumentada equivalente

 a11
1 1
a12  a11n b11 
 
0 a122  a12 n b21 
[A , b ] = 
1 1
,
    
 
 0 a1n2  a1nn bn1 

em que

– 73 –
a1ij = aij0 − mi1 a10j , para i = 2,  , n e j = 1, 2,  , n ,
bi1 = bi0 − mi1b10 , para i = 2,  , n,
a11 j = a10j , para j = 1, 2,  , n ,
b11 = b10 .

Na etapa 2, dado que det( A) ≠ 0, sempre teremos o elemento a122 ≠ 0 .


Então, podemos reescrever a matriz A1, sem alterar a posição da linha 1, de
modo que o pivô da etapa 2, a122, seja diferente de zero. Agora, eliminare-
mos a variável x2 das equações i = 3,  , n, subtraindo da equação i a segunda
a1
equação multiplicada por mi 2 = i 2 1 para i = 3,  , n. Ao f inal dessa etapa,
a22
obteremos a matriz aumentada equivalente

 a112 a122 a132 … a12n b12 


 2 2

0 a22 a23 … a22n b22 
[A , b ] =  0
2 2
0 2
a33 … a32n

b32  ,

     
 
 0 0 an23 … ann
2
bn2 
em que

aij2 = a1ij − mi 2 a12 j , para i = 3,  , n e j = 2,  , n,


bi2 = bi1 − mi 2 b21 , para i = 3,  , n ,
aij2 = a1ij , para i = 1, 2 e j = 1, 2,  , n,
bi2 = bi1, para i = 1, 2 .

Continuamos com este processo até a etapa n − 1, em cujo f inal obtere-


mos a matriz aumentada equivalente

 a11n−1 a12n−1 a13n−1  a1nn−−11 a1nn−1 b1n−1 


 
 0 a22n−1 a23n−1  a2nn−−11 a2nn−1 b2n−1 
[A , b ] =  0
n −1 n −1
0 a33n−1  a3nn−−11 a3nn−1

b3n−1  .

        
 n −1 n −1

 0 0 0  0 ann bn 

– 74 –
Agora, o sistema linear equivalente é triangular superior. O sistema está
pronto para a aplicação do algoritmo 2.2.
Os procedimentos descritos nesta seção são expressos na forma de um
algoritmo, como a seguir.

Algoritmo 2.3: Eliminação de Gauss


Dados: uma matriz quadrada A, n × n, com det( A) ≠ 0, um vetor b em ℜ n e n.
Para k = 1,  , n − 1
Para i = k + 1,  , n
aik
m← akk
  a ←0
  ik

  Para j = k + 1,  , n
aij ← aij − makj
    
bi ← bi − mbk

Em seguida, ilustraremos o algoritmo 2.3 resolvendo um exemplo nu-


mérico.

Exemplo 2.22: Reduza o seguinte sistema a um sistema triangular superior

 x1 + 2 x2 + 3 x3 = 0

4 x1 + 5 x2 + 6 x3 = 1
x − x2 = 2.
 1

Em notação matricial, temos

1 2 3 0
[ A, b] =  4 5 6 1 .
 1 −1 0 2

Usando o algoritmo de eliminação de Gauss,

– 75 –
a
k = 1, i = 2, m = 21 a = 4 1 = 4, a21 = 0 ,
11
j = 2, a22 ← a22 − ma12 , a22 = 5 − 4 × (2) = −3,
j = 3, a23 ← a23 − ma13 , a23 = 6 − 4 × (3) = −6,
b2 ← b2 − mb1 , b2 = 1 − 4 × (0) = 1.
a
i = 3, m = 31 a = 11 = 1, a31 = 0 ,
11
j = 2, a32 ← a32 − ma12 , a32 = −1 − 1 × (2) = −3,
j = 3, a33 ← a33 − ma13 , a33 = 0 − 1 × (3) = −3,
b3 ← b3 − mb1 , b3 = 2 − 1 × (0) = 2.

Neste ponto, obtemos


1 2 3 0
[ A, b]~ 0 −3 −6 1 .

0 −3 −3 2

Continuando o algoritmo 2.3,

a
k = 2, i = 3, m = 32 a = −3 −3 = 1, a32 = 0 ,
22
j = 3, a33 ← a33 − ma23 , a33 = −3 − 1 × ( −6) = 3 ,
b3 ← b3 − mb2 , b3 = 2 − 1 × (1) = 1 .

Neste ponto, obtemos


1 2 3 0
[ A, b]~ 0 −3 −6 1 .

0 0 3 1

Portanto, o sistema equivalente triangular superior é como a seguir

 x1 + 2 x2 + 3 x3 = 0

 − 3 x2 − 6 x3 = 1
 3 x3 = 1.

– 76 –
Exemplo 2.23: Calcule a solução do sistema triangular superior obtido pela
aplicação da eliminação de Gauss

 x1 + 2 x2 + 3 x3 = 0

 − 3 x2 − 6 x3 = 1
 3 x3 = 1.

Pelo algoritmo de substituições retroativas, obtemos

x3 = 1 3 ,
x2 = (1 + 6 × ( 1 3 )) −3 = −1 ,
x1 = (0 − 3 × ( 1 3 ) − 2 × ( −1)) 1 = 1 ,
\ x* = [1 −1 1 3]T .

A próxima seção tratará do método usualmente mais indicado para re-


solver sistemas lineares de equações algébricas, que é a decomposição LU,
também conhecida como fatoração LU.

2.4.4 Decomposição LU de matrizes quadradas

A seção 2.4.2, intitulada “Sistemas triangulares”, mostrou que um siste-


ma de equações em que a matriz de coef icientes se apresenta como uma ma-
triz triangular inferior ou como uma matriz triangular superior é facilmente
solucionável por substituições diretas ou reversas. A seção 2.4.3 mostrou que
é possível usar a eliminação de Gauss e transformar um sistema Ax = b para
a forma triangular.
O método da decomposição LU associa as duas ideias: primeiro, obtém-
se a forma triangular superior da matriz A e, simultaneamente, armazenam-
se os multiplicadores usados nessa operação. Em seguida, alcança-se a solução
do sistema, resolvendo-se dois sistemas triangulares através das substituições
direta e reversa.
Inicialmente, trataremos da decomposição da matriz de coef icientes,
sem contudo efetuar operações sobre o vetor independente, b, ao contrário do
que foi feito na seção 2.4.3. O primeiro caso é quando não há troca de linhas
durante a fatoração.

– 77 –
Exemplo 2.24: Obtenha uma decomposição LU da matriz

 4 1 −1 2
2 2 1 0
A=  .
 1 −1 2 1
 
 1 −1 1 1

O procedimento é o mesmo utilizado no processo de eliminação de


Gauss. Efetuaremos operações elementares para anular elementos das colu-
nas da matriz, desde a coluna 1 até a coluna 3, sempre anulando as posições
abaixo do elemento da diagonal correspondente.
Anularemos a seguir os elementos que estão abaixo do elemento da po-
sição (1,1):

 4 1 −1 2  4 1 −1 2 
2 2 1 0 l2 ← l2 + ( − 42 ) × l1 0 3 3 −1
  ~  2 2
,
 1 −1 2 1  1 −1 2 1 
   
 1 −1 1 1  1 −1 1 1 
multiplicador utilizado = − 24 ,
 4 1 −1 2  4 1 −1 2
0 3 3 −1 0 3 3 −1
 2 2
 ~  2 2
,
 1 −1 2 1  l3 ← l3 + ( − 4 ) × l1 0 − 4
1 5 9
4
1 
2
   
 1 −1 1 1   1 −1 1 1
multiplicador utilizado = − 1 4 ,
4 1 −1 2 4 1 −1 2
0 3 3 −1  0 3 3 −1
 2 2  ~  2 2 ,
0 − 4
5 9
4
1 
2 0 − 4
5 9
4
1 
2
   1 
 1 −1 1 1  l4 ← l4 + ( − 4 ) × l1 0 − 5 4
1 5
4 2

multiplicador utilizado = − 1 4 .

A matriz triangular inferior, designada por L, no caso específ ico do mé-


todo LU, possui a diagonal principal constituída de elementos unitários, e os

– 78 –
elementos que se situam abaixo da diagonal são o negativo dos multiplicadores
utilizados nas operações elementares durante o processo de eliminação.
Dessa forma, após anular elementos na primeira coluna, a matriz pas-
sa a exibir a seguinte estrutura:
 1 0 0 0
 2 1 0 0
L= 1 .
4
 4 ? 1 0
1 
 4 ? ? 1

Passaremos, em seguida, a anular os elementos da coluna 2 que estão


abaixo da posição (2,2):
 4 1 −1 2   4 1 −1 2 
0 3 3 −1  0 3 3 −1 
 2 2   
5 ~  2 2 ,
0 − 5 4 9 4 1 2  l3 ← l3 +  4  × l2 0 0 7
2 − 13 
   32   
 0 − 5
4
5
4
1
2  0 − 4 4
5 5 1
2 

5 5
multiplicador utilizado = 4
= .
3 6
2

4 1 −1 2  4 1 −1 2 
0 3 3 −1  0 3 3 −1 
 2 2  ~  2 2 
0 0 7
2 − 13  0 0 7
2 − 13 
   5   
0 − 4 2  l4 ← l4 +  × l2 0
4 −1
5 5 1 0 5
3 
4 2 3 ,
 2

5 5
multiplicador utilizado = 4
= .
3 6
2

Depois de anular elementos na segunda coluna, a matriz L apresenta a


seguinte estrutura:
1 0 0 0
2 1 0 0
L= 1 .
4
 4 − 5 6 1 0
1 
 4 − 6 ? 1
5

– 79 –
Anularemos o elemento da coluna 3 que está abaixo da posição (3,3):
 4 1 −1 2   4 1 −1 2 
0 3 3 −1  0 3 3 −1 
 2 2  ~  2 2 
0 0 7 2 − 1 3  0 0 7 2 − 1 3 
   − 52   
3  l4 ← l4 +  × l3 0 0 0 −2 21  ,
−1
0 0
5
2 
 72 

− 52 5
multiplicador utilizado = =− .
7 7
2

A matriz L exibe f inalmente a sua estrutura completa,

1 0 0 0
2 1 0 0
L= 1 ,
4
 4 − 56 1 0
1 
 4 − 56 5
7 1

e a matriz U é a própria matriz triangular superior que resultou das opera-


ções de eliminação de Gauss,

4 1 −1 2 
0 3 3 −1 
U=  .
2 2
0 0 7
2 − 13 
 −2 
0 0 0 21 

O produto das matrizes L e U resulta na matriz original A, conforme


está indicado a seguir,
LU = A,

1 0 0 0  4 1 −1 2   4 1 −1 2
2 1 0 0  0 3 3 −1   2 2 1 0
 4  2 2
= .
 4 − 56
1 1 0  0 0 7
2 − 1 3   1 −1 2 1
1  −2   
 4 − 6 1 0 0 0  1 −1 1 1
5 5
7 21 

– 80 –
Dessa forma, está concluído o exemplo 2.24, no qual obtivemos uma
decomposição da matriz A.
Os fundamentos matemáticos da decomposição LU provêm do concei-
to de matriz elementar (vide a def inição 2.13 e o teorema 2.3). No exemplo
precedente, os passos para se obter a decomposição de A podem ser expressos
usando-se matrizes elementares, do seguinte modo:

 1 0 0 0  4 1 −1 2  4 1 −1 2 
− 2 1 0 0 2 2 1 0 0 3 3 −1
E1 A =    =  ,
4 2 2
 0 0 1 0  1 −1 2 1  1 −1 2 1 
     
 0 0 1 1  1 −1 1 1  1 −1 1 1 

 1 0 0 0  1 0 0 0  4 1 −1 2  4 1 −1 2
 0 1 0 0  − 2 4 1 0 0 2 2 1 0  0 3 2 3 −1
E2 E1 A =  1    = 
2
− 4 0 1 0  0 0 1 0  1 −1 2 1 0 − 5 4 9 1 ,
4 2
      
 0 0 1 1  0 0 1 1  1 −1 1 1  1 −1 1 1

 1 0 0 0  1 0 0 0  1 0 0 0  4 1 −1 2
 0 1 0 0  0 1 0 0  − 2 4 1 0 0 2 2 1 0
E3 E2 E1 A =      =
 0 0 1 0  − 1 4 0 1 0  0 0 1 0  1 −1 2 1
 1     
− 4 0 0 1  0 0 0 1  0 0 0 1  1 −1 1 1

4 1 −1 2
0 3 3 −1
= .
2 2
0 − 4
5 9
4
1 
2
 1 
0 − 4
5 5
4 2

Assim, as multiplicações das seguintes matrizes elementares

1 0 0 0 1 0 0 0 1 0 0 0
0 1 0 0  0 1 0 0  0 1 0 0
E4 =  , E =  e E = 
0 5
6 1 0 5
0 0 1 0 6
0 0 1 0
     
0 0 0 1 0
5
6 0 1 0 0 − 57 1

– 81 –
sobre E3 E2 E1 A, na sequência E6 E5 E4 E3 E2 E1 A, conduzem à matriz triangu-
lar superior U,

4 1 −1 2 
0 3 3 −1 
E6 E5 E4 E3 E2 E1 A = U =  .
2 2
0 0 7
2 − 13 
 −2 
0 0 0 21 

Ora, a inversa da matriz elementar do tipo usado na decomposição LU


consiste apenas em trocar o sinal do elemento não nulo que está fora da diago-
nal, e a inversa da matriz elementar é também uma matriz elementar.
Outro aspecto interessante da matriz elementar é que o produto de duas
matrizes elementares que descrevem operações sobre o triângulo inferior
goza da propriedade de superposição, observada a ordem das operações. Para
exemplif icar a superposição, considere o produto E3−1 E4−1,

1 0 0 0  1 0 0 0  1 0 0 0
0 1 0 0  0 1 0 0   0 1 0 0
E3−1 E4−1 =   = ,
0 0 1 0  0 − 5 6 1 0  0 − 5 6 1 0
1    
 4 0 0 1  0 0 0 1  1 4 0 0 1

que equivale a

1 0 0 0  1 0 0 0 1 0 0 0  1 0 0 0
0 1 0 0  0 1 0 0  0 1 0 0  0 1 0 0 .
E3−1 + E4−1 − I =  + − = 
0 0 1 0  0 − 5 6 1 0  0 0 1 0  0 − 56 1 0
1       
 4 0 0 1  0 0 0 1  0 0 0 1  1 4 0 0 1

Consequentemente,

1 0 0 0 1 0 0 0
0 1 0 0  2 1 0 0
E5−1 E6−1 =   , E −1 E −1 =  4 .
0 0 1 0 1 2  1 4 0 1 0
 −5   
0 1 0 0 0 1
5
6 7

– 82 –
Daí, concluímos que o produto E1−1 E2−1 E3−1 E4−1 E5−1 E6−1 resultará na ma-
triz triangular inferior, L , como está mostrado a seguir,

A = E1−1 E2−1 E3−1 E4−1 E5−1 E6−1U ,


A = LU .

Precisamos de um procedimento sistemático para efetuar a decompo-


sição LU de uma dada matriz A. Suporemos inicialmente que não haverá
necessidade de troca de linhas. O algoritmo 2.4 obtém a decomposição LU de
A, n × n .

Algoritmo 2.4: Decomposição LU de A


Dados: uma matriz quadrada A, n × n, e n.
L← I
Para k = 1,  , n − 1
Para i = k + 1,  , n
aik
m← akk
aik ← 0
lik ← m
    Para j = k + 1,  , n
          aij ← aij − makj
Ao término dos passos deste algoritmo, os elementos da matriz U esta-
rão armazenados nas posições originalmente reservadas à matriz A, portanto,
perderemos os elementos de A.
Com a suposição de que não haverá troca de linhas, a decomposição LU
pode falhar. O exemplo 2.25 ilustra essa situação.

Exemplo 2.25: Obtenha a decomposição LU da matriz, sem efetuar troca de


linhas:

 2 1 1
A =  −2 −1 2 .
 4 1 1

– 83 –
Ao anularmos o elemento −2 da posição (2,1), verif icamos o surgimento
do zero na posição diagonal (2,2),

 2 1 1  2 1 1
 −2 −1 2 l ← l + ( 2 ) × l ~ 0 0 3 .
  2 2 2 1  
 4 1 1  4 1 1

A presença deste elemento zero impossibilita efetuar a operação de anu-


lar a posição (3,2), ocupada pelo elemento 1. Nessas condições, dizemos que a
decomposição LU falhou.

Proposição 2.4: Seja A uma matriz, n × n. A existência das matrizes trian-


gulares L e U, na hipótese de não podermos efetuar troca de linhas (ou
seja, a primeira operação elementar descrita na seção 2.3), tais que A =
LU, é assegurada sempre que as submatrizes principais líderes de A forem
invertíveis.
Entretanto, a operação elementar troca de linhas resolve esse impasse.
No exemplo 2.26, efetuaremos a decomposição LU da matriz do exem-
plo precedente e, simultaneamente, construiremos uma matriz denominada
matriz de permutação, simbolizada por P.

Exemplo 2.26: Obtenha a decomposição LU da matriz, com troca de linhas,


se necessário:
 2 1 −2
A =  −2 −1 2 
.
 4 1 1 

Ao verif icarmos o surgimento de zero na posição diagonal (2,2), decor-


rente da anulação do elemento –2, da posição (2,1), reiniciaremos o processo,
trocando as linhas 1 e 3. Essa operação estará representada pela matriz ele-
mentar E1:
0 0 1 
E1 = 0 1 0  .
1 0 0 
Teremos

– 84 –
4 1 1
E1 A =  −2 −1 2  .
 2 1 −2

Anulamos, em seguida, o elemento −2 da posição (2,1):

4 1 1 4 1 1
 −2 −1 2  l ← l + ( 2 ) × l ~ 0 − 1 
2.
5
  2 2 4 1  2
 2 1 −2  2 1 −2

Anulamos o elemento 2, que está na posição (3,1):

4 1 1 4 1 1 
0 − 1 5  ~ 0 − 1 2 5 2  ,

 2 2
 2 1 −2 l3 ← l3 + ( − 42 ) × l1 0 1 2 − 5 2 

e partimos, f inalmente, para anular o elemento 1


2 que se encontra na po-
sição (3,2):

 4 4 1 1 1 1   4 4 1 1 1 1 
00 − −1 1 5 5   ~ ~00 − −1 2 1 2 5 252  .
 2 2 2 2 
00 1 2 1 2 − −5 252l3 l←
3 ←l3 l+3 +
( −(1)
−1)
(1) ×××ll22l2 00 0 0 0 0 

A matriz triangular superior, U, é:

4 1 1
U = 0 − 1 2 5 ,
2
0 0 0 
e a matriz L, é
1 0 0
L =  −1 2 1 0  ,
 1 2 −1 1

com a ressalva de que uma troca de linhas ocorreu e está representada na


matriz P, que é o produto de matrizes elementares que ref  lete as trocas de
linhas ocorridas:

– 85 –
0 0 1 
P = 0 1 0  .
1 0 0 

Para concluirmos o exemplo, precisamos entender o papel da matriz P


na decomposição LU. Se f izermos o produto LU não iremos obter a matriz
A , isto é:

1 0 0  4 1 1  4 1 1 
LU =  −1 2 1 0  0 − 1 2 5  =  −2 −1
2  2  .
 1 2 −1 1 0 0 0   2 1 −2

Todavia, o produto obtido é a matriz A pré-multiplicada por P. Então,


como regra geral, a decomposição LU, quando trocas de linhas estão repre-
sentadas por uma matriz P, é tal que

PA = LU,
e
A = PLU .

O exemplo 2.26, solucionado anteriormente, além de mostrar como


proceder quando há troca de linhas, também ilustra o caso em que a ma-
triz A não é invertível e a decomposição LU é realizada normalmente.
Isto pode ser constatado no fato de o determinante da matriz U ser zero,
que é igual ao determinante da matriz A, conforme estabelece a proposi-
ção 2.1, item a.
A solução de um sistema de equações lineares algébricas com n equa-
ções e n incógnitas, Ax = b, compatível determinado, é realizada sem dif icul-
dades se estivermos de posse da decomposição LU da matriz de coef icientes.
Suponhamos que na decomposição não houve troca de linhas. Então, a solu-
ção é obtida com os seguintes passos, uma vez que agora

Ax = ( LU ) x = L(Ux) = b:

(1) decomposição: A = LU;

– 86 –
(2) substituição direta: Ly=b,
 11 00 
 00 00  y1   b1 
 l    
  l2121 11 
 00 00  y2   b2 

   
      =    ;
     
 lnl−n1,1−11 lnl−n−1,212 
 11 00  yn−1   bn−1 
 lln1 lnn22 
 llnnn, n−−11 11  yn   bn 
  n1

(3) substituição reversa: Ux=y,


 u11u11 u12 
u12  u1,1nn−−11 uu11,n n   x1   y1 
 00  u2,2 nn−−11 uu22,n n   x2   y2 

uu2222      
             =    .
     
 00 00   uun−n1,−1nn−−11 uunn−−1,1 nn  xn−1   yn−1 
 00 00   00 uunnnn   xn   yn 

As etapas que solucionam os sistemas triangulares são idênticas aos mé-


todos descritos na seção 2.4.2, e a solução de Ly = b é feita aplicando o algorit-
mo 2.1. A solução de Ux = y é feita aplicando-se o algoritmo 2.2.
A seguir, adaptamos os algoritmos mencionados à notação utilizada
nesta seção, para apresentar o algoritmo completo de solução de um sistema
de equações Ax = b, compatível determinado, para o caso em que a troca de
linhas não é necessária.

Algoritmo 2.5: Solução de Ax = b através da decomposição LU


 Dados: uma matriz quadrada A, n × n, um vetor de termos independentes
b e n.
L← I
Para k = 1,  , n − 1
Para i = k + 1,  , n
aik
m← akk
aik ← 0

– 87 –
lik ← m
      Para j = k + 1,  , n
      aij ← aij − makj

y1 ← b1
Para i = 2,  , n
  soma ← 0
Para j = 1,  , i − 1
  soma ← soma + lij y j
  yi ← bi − soma
xn ← yn ann
Para i = n − 1,  ,1
soma ← 0
Para j = i + 1,  , n
soma ← soma + aij x j
xi ← ( yi − soma) aii

O leitor pode, em princípio, não ver vantagem na solução de sistemas


com a decomposição LU, se comparada com a utilização do método de eli-
minação de Gauss. Entretanto, uma característica muito importante da de-
composição LU é notada quando desejamos resolver sistemas com a mesma
matriz de coef icientes e diferentes vetores de termos independentes. Com as
mesmas matrizes triangulares, L e U, obtidas da decomposição da matriz A,
procederemos às etapas de substituição direta e reversa para cada vetor de
termos independentes. Enquanto que, na eliminação de Gauss, o algoritmo
opera sobre a matriz aumentada, [ A, b] , de modo que, para cada vetor de
termos independentes, todo o processo de eliminação terá de ser realizado
desde o início.
Um aspecto extremamente importante quando tratamos da solução de
sistemas algébricos de equações lineares é o número de operações requeridas
para se chegar à solução do sistema. Vimos anteriormente que a solução via
determinante – regra de Cramer – é extremamente onerosa em relação ao
número requerido de operações. O método de Gauss-Jordan, e a subsequente
multiplicação da inversa de A pelo vetor b, é visto aqui como um método de
solução de sistemas algébricos de equações lineares.

– 88 –
Primeiramente, analisaremos o número de operações necessárias para a
decomposição LU de uma matriz A, n × n .
Aqui, assumimos um f  lop como a unidade de operação de ponto
f  lutuan­te que corresponde a um produto acompanhado de uma adição envol-
vendo números reais (ou seja, a = b + c × d ). Então, supondo a primeira linha
da matriz inalterada, na obtenção dos zeros na primeira coluna, realizamos
n( n − 1) f  lops e, na segunda coluna, ( n − 1)( n − 2) f  lops e, na terceira coluna,
( n − 2)( n − 3) f  lops e, assim por diante, resultando no seguinte somatório,
n −1

∑ ( n − k + 1)( n − k) ,
k =1

( n2 − 1) n n3 − n
cujo resultado é = .
3 3
A obtenção da inversa da matriz A através do método de Gauss-Jordan
requer a seguinte quantidade de f  lops para anular as posições abaixo da dia-
gonal principal:

n −1 n −1

∑k =1
(2n − k + 1)( n − k) , e ∑ ( n + k)( n − k)
k =1

f  lops para anular as posições acima da diagonal principal, além de aproximada-


mente ( n + 1) n f  lops para tornar unitários os elementos da diagonal. Efetuando
as somas indicadas, chegamos ao número aproximado de f  lops requeridos na
obtenção da inversa da matriz A através do método de Gauss-Jordan,

n −1 n −1
3n3 + n
∑k =1
(2n − k + 1)( n − k) + ∑
k =1
( n + k)( n − k) + ( n + 1) n ≅
2
.

As etapas de solução do método baseado na decomposição LU conso-


mem 2( n − 1)2 f  lops e, no método de solução por Gauss-Jordan, as operações
requeridas para multiplicar A−1 por b correspondem a n2 f  lops. Negligencia-
dos os termos de menor ordem no cálculo do número de operações de ponto
f  lutuante, concluímos que os métodos sob análise possuem os desempenhos
mostrados na tabela 2.2.

– 89 –
Tabela 2.2: Número aproximado de f  lops requeridos para a solução de um sistema Ax=b,
sendo A uma matriz n × n, nos métodos de Gauss-Jordan e decomposição LU

Gauss-Jordan Decomposição LU
3n3 + n n3 − n
inversa decomposição
2 3
−1
multiplicação A b n2 substituições 2( n − 1)2

3n3 + 2n2 + n 3n3 n3 + 6 n2 − 13n + 6 n3


total ≅ total ≅
2 2 3 3

Percebemos imediatamente que, dentre os métodos apresentados neste


texto, o que apresenta melhor desempenho é o método de solução baseado na
decomposição da matriz em seus fatores triangulares L e U.
No próximo capítulo será estudado um tópico básico de Programação
Matemática denominado Programação Linear.

2.5 Exercícios propostos

1. Programe a adição de duas matrizes, m × n.

2. Programe a transposição de uma matriz, m × n.

3. Programe a multiplicação de uma matriz m × n e uma matriz n × q.

4. Programe a regra de Cramer para o exemplo 2.16, com b = [1 −2 3]T .

5. Programe o algoritmo de substituições sucessivas para o exemplo 2.20.

6. Programe o algoritmo de substituições retroativas para o exemplo 2.21.

7. Programe o algoritmo de eliminação de Gauss com o algoritmo de substi-


tuições retroativas para o exemplo 2.22.

8. Utilize o comando rref do software MATLAB para a matriz do exemplo 2.12.

– 90 –
9. Utilize o comando rank do software MATLAB para a matriz do exemplo 2.13.

10. Utilize o comando rref do software MATLAB para a matriz do


exemplo 2.14.

11. Utilize o comando null do software MATLAB para a matriz do


exemplo 2.19.

12. Utilize o comando [P,L,U]=lu(A) do software MATLAB para a ma-


triz do exemplo 2.24.

13. Utilize o comando [P,L,U]=lu(A) do software MATLAB para a ma-


triz do exemplo 2.26.

14. Programe o algoritmo 2.5 e resolva o seguinte sistema de equações

1 2 3  x1   −1
0 1 0   x  =  2  .
  2  
1 0 2  x3   1 

15. Utilize o comando x=A\b do software MATLAB para resolver o sistema


do exercício anterior.

16. Calcule a inversa da matriz empregando o método da matriz adjunta

1 2 3
A = 0 1 0  .
1 0 2

17. Obtenha o sistema linha equivalente a

 x1 + 2 x2 + 3 x3 = 0

4 x1 + 5 x2 + 6 x3 = 1.
x − x2 = 2
 1

18. Determine o posto de cada uma das seguintes matrizes

– 91 –
1 1 1
a) A =  ,
1 1 1

1 2 4
 
b) B =  −1 −2 −4 ,
 2 4 8 

1 0 −1
c) C =  
2 4 2 

e
 −1 2 2 1
d) D =  0 2 1 1 .
 
 1 3 −1 1
19. Dados os sistemas Ax = b abaixo, classif ique-os quanto à solução: (a) com-
patível determinado; (b) compatível indeterminado; e (c) incompatível (ou
inconsistente).

 x1 + 2 x2 + 3 x3 = 1

a) 4 x1 + 5 x2 + 6 x3 = −1 ,
3x + 3 x2 + 3 x3 = −2
 1

2 x1 − x2 + x3 = 5
b)  ,
 x1 + x2 − x3 = 2

 x1 + 2 x2 + 3 x3 = 1

c)  x1 − x2 + x3 = 1
x + x2 + x3 = 0
 1

e
 x1 − x2 + x3 = 1
d)  .
 x1 + x2 − x3 = 1

– 92 –
20. Mostre que o sistema
 x1 + 3 x2 + 2 x3 = 7

 2 x1 + x2 − x3 = 5
− x + 2 x2 + 3 x3 = 4
 1

não tem solução, ou seja, é incompatível.

21. Verif ique se as matrizes A e B são def inidas positivas ou não

 3 −1 0 
a) A =  −1 2 2
 0 2 3

e
 −1 3
b) B =  .
 2 1
22. Obtenha as inversas das matrizes elementares

1 0 0 
a) E1 = 0 5 0 ,
0 0 1

1 0 0 
b) E2 = 0 1 0 
 2 0 1
e

1 0 0 
c) E3 = 0 1 0 .
0 −3 1

23. Utilize matrizes elementares para obter a inversa da matriz


1 2 3
A = 0 1 0  .
1 0 2

– 93 –
24. Converta o sistema Ax=b à forma triangular e obtenha a solução x com os
dados

1 1 1 1 0 
0 0 0 −2  1
A=   e b=   .
0 3 2 2 0 
   
0 1 −1 3  0 

25. Pesquise e descubra um método que não utilize o cálculo de determinan-


tes para determinar se uma matriz é ou não é def inida positiva.

– 94 –
III
Programação Linear

N  este capítulo será introduzido o estudo sobre a Programação Matemáti-


ca através da Programação Linear (PL). Def iniremos o problema de PL
(PPL) e estudaremos os fundamentos da PL e o método simplex. Sugerimos
as referências Arenales et al. (2007), Bazaraa, Jarvis & Sherali (1997); Bregalda,
Oliveira & Bornstein (1988), Dantzig (1963), Goldfarb & Todd (1989), Gonzaga
(1989), Machado (1975), Maculan & Pereira (1980), Maculan & Fampa (2006),
Menezes (2010), Taha (2008) e Yoshida (1987).
Iniciamos o nosso propósito def inindo o problema de PL.

3.1 O problema de Programação Linear

Nesta seção, será def inido, em particular, o PPL na forma padrão, tendo


em vista que qualquer PPL pode ser convertido para esse formato.
Consideremos os números inteiros m e n, tais que 0 < m < n . Dados uma
matriz numérica com coef icientes reais A, m × n, e vetores b ∈ℜ m e c ∈ℜ n ,
o problema de Programação Linear no formato padrão é o problema de oti-
mização:

minimizar z = cT x
(P) sujeito a: Ax = b
x ≥ 0.

Seguem-se algumas def inições associadas ao problema (P).

– 95 –
Def inição 3.1: Considere o PPL (P):

a) A função linear x  z = cT x é chamada função objetivo.


b) O conjunto X = { x ∈ℜ n ; Ax = b, x ≥ 0} é chamado conjunto viável, e um
ponto x ∈ X é denominado ponto viável.
c) O conjunto X ( P ) = { x* ∈ X ; cT x* ≤ cT x , para todo x ∈ X } é chamado con-
junto de soluções ótimas e um ponto x* ∈ X ( P ) é denominado solução
ótima.
d) O problema (P) será chamado problema ilimitado quando existir uma se-
quência ( x k ), tal que x k ∈ X e cT x k → −∞, quando k  .
e) O problema (P) será chamado problema inviável quando X for vazio.

Um caso para um problema ilimitado de PL poderá ser observado no exem-


plo 3.9, adiante, enquanto que, para um problema inviável, podemos recorrer ao
exemplo 2.17, visto quando estudamos o sistema incompatível de equações lineares.

Exemplo 3.1: Sejam dados a matriz tecnológica A, 2 × 3, o vetor do lado


direito b ∈ℜ2 e o vetor custo c ∈ℜ3 a saber:
1
 2 −4 1  5  
A=   , b =   e c =  0 .
 1 0 1 7   −2

O PPL na forma padrão é o seguinte:

minimizar z = x1 − 2 x3
sujeito a : 2 x1 − 4 x2 + x3 = 5
x1 + x3 = 7
x1 , x2 , x3 ≥ 0.

3.1.1 Obtenção do formato padrão

Geralmente, pretendemos resolver um PPL no formato do problema


(P). Isto é, o primeiro grupo de restrições envolve somente igualdades, e todas
as variáveis do modelo são não negativas. Além disso, queremos minimizar o
valor da função objetivo.

– 96 –
Na ocorrência de
maximizar z = cT x
sujeito a: x ∈ X ,

basta trocarmos o sinal no valor da função objetivo, a saber:

minimizar − z = − cT x
sujeito a: x ∈ X.

Para i = 1, ..., m, na ocorrência de desigualdades como as mostradas a


seguir

∑a x
j =1
ij j ≤ bi

ou
n

∑a x
j =1
ij j ≥ bi ,

basta tomar xn+ i ≥ 0 , tal que

∑a x
j =1
ij j + xn+ i = bi

ou
n

∑a x
j =1
ij j − xn+ i = bi ,

respectivamente e, assim, convertemos as restrições de desigualdade para


igualdade. Dizemos que xn+ i é uma variável de folga, quando adicionada na
restrição, e variável de excesso, quando subtraída na restrição.
Agindo de outro modo, consideremos j = 1, ..., n. Sejam dados números
reais l j e u j , com l j ≠ 0. Na ocorrência de variáveis do tipo x j ≥ l j ou x j ≤ u j,
podemos considerar x j ≥ l j ou x j ≤ u j como restrições do tipo ≥ ou ≤, respec-
tivamente.

– 97 –
Na ocorrência de variáveis livres, isto é, x j ∈ℜ, para algum j=1, ..., n,
basta realizar uma mudança de variáveis, def inindo

x j = x j − xˆ j , com x j ≥ 0 e xˆ j ≥ 0 .

Note-se que não consideramos desigualdades estritas.

Exemplo 3.2: Para converter o PPL

maximizar z = x1 − 5 x2
sujeito a : x1 + x2 ≤ 2
x2 ≥ 0

para o formato padrão, devemos tomar x1 + x2 + x3 = 2 , com x3 ≥ 0 , e def inir

x1 = x4 − x5 , com x4 ≥ 0 e x5 ≥ 0 ,

e trocar o sinal no valor da função objetivo. Assim, obtemos:

minimizar z = 5 x2 − x4 + x5
sujeito a : x2 + x3 + x4 − x5 = 2
x2 , x3 , x4 , x5 ≥ 0.

A propósito, quando um problema de Otimização é um problema de PL?


Quando as funções envolvidas – a função objetivo e as restrições do problema – são
af  ins (lineares) e contínuas e, além disso, as variáveis do problema são contínuas.

3.2 A geometria da Programação Linear

Nesta seção será tratado o estudo dos fundamentos da PL. O que faremos
neste caminho, então, será reescrever o que já existe na literatura, dando uma pri-

– 98 –
meira olhada no conjunto viável como um poliedro e, em seguida, caracterizando-
o como um poliedro com um número f inito de pontos extremos e com pelo menos
um ponto extremo quando não vazio. Além disso, será desenvolvido um método
gráf ico para a solução de um PPL, e enunciado o teorema fundamental da PL.
Iniciamos nossa tarefa com alguns resultados de convexidade. Af inal, o
que são poliedros?

Def inição 3.2: Sejam dados um vetor não nulo a ∈ℜ n, denominado vetor nor-
mal, e um escalar δ ∈ℜ .

a) O conjunto
H = { x ∈ℜ n ; aT x = δ}

é denominado um hiperplano.

b) Os conjuntos
Hl = { x ∈ℜ n ; aT x ≤ δ}
e
Hu = { x ∈ℜ n ; aT x ≥ δ}

são denominados semiespaços fechados.

c) Um poliedro é um conjunto formado pela interseção de um número f inito


de semiespaços fechados.

Pela def inição de poliedro, observamos que o conjunto vazio é um polie-


dro, porque é a interseção de zero semiespaços fechados, por exemplo.

Exemplo 3.3: A figura 3.1 representa um hiperplano H, def inido pelo vetor


normal a = [0,1 0,2]T e pelo número δ = 0, 3. Observe que o vetor a def ine a
inclinação do hiperplano enquanto que δ def ine a posição de H . No senti-
do do vetor normal, obtemos Hu, representado pela região hachurada, e, no
sentido contrário, Hl . Observe, também, que H é um poliedro, porque é a
interseção de dois semiespaços fechados, Hl e Hu .

– 99 –
Figura 3.1: Representação de um hiperplano H e de semiespaços fechados Hl e Hu

Agora, vejamos o que é um conjunto convexo.

Def inição 3.3: Sejam dados q vetores x1 , x 2 ,  , x q ∈ ℜ n.

a) Dizemos que x ∈ℜ n é uma combinação linear de x1 , x 2 ,… , x q ∈ℜ n,


quando existirem q escalaresλλ1 1,,λλ2 2,…
, ...,, λλqq ∈ℜ, tais que

x = λ1 x1 + λ 2 x 2 + … + λ q x q.

b) Dize-se que x ∈ℜ n é uma combinação convexa de x 1, x1 x, x2,2 ...,


,… , xxqq ∈ℜ n,
quando x for uma combinação linear e

λ1 + λ 2 + … + λ q = 1 e λ1 , λ 2 , … , λ q ∈[0,1] .

A notação [0, 1] signif ica intervalo fechado cujos extremos são 0 e 1.

– 100 –
c) Seja S um subconjunto do ℜ n. Dizemos que S é um conjunto convexo,
quando todas as combinações convexas de quaisquer dois pontos de S
pertencerem a S .
d) Seja S um subconjunto convexo do ℜ n. Um ponto x em S é denomi-
nado ponto extremo de S, quando x não for uma combinação convexa de
quaisquer dois outros pontos distintos em S.

No exemplo a seguir, são ilustrados dois conjuntos: um convexo e um


não convexo.

Figura 3.2: Exemplos de (a) um conjunto convexo e (b) um conjunto não convexo

Exemplo 3.4: Na figura 3.2(a) temos um conjunto convexo com quatro pontos
extremos; a f igura 3.2(b) não é um conjunto convexo. São também mostrados
dois pontos x1 e x2, pertencentes aos conjuntos, e x̂ , um ponto extremo da fi-
gura 3.2(a).

No conjunto da f igura 3.2(a), verif icamos que, dados quaisquer dois


pontos desse conjunto, os que são uma combinação convexa desses dois pon-
tos também pertencem ao conjunto, o que não ocorre em relação ao conjunto
da figura 3.2(b). Além disso, na figura 3.2(a) x̂ é um ponto extremo, porque
não pode ser escrito como uma combinação convexa de dois pontos distintos
dele em S, enquanto que na figura 3.2(b) não existe ponto extremo porque o
conjunto não é convexo.
Agora, do ponto de vista computacional, vamos reescrever a def inição
de ponto extremo de uma maneira mais operacional. Iniciamos com a seguin-
te def inição:

– 101 –
Def inição 3.4: Sejam dados uma matriz A, m × n, 0 < m < n, e um vetor
b em ℜ m . Consideremos um sistema de equações lineares Ax = b, tal que
posto ( A ) = m .

a) Uma matriz quadrada B, m × m, obtida de A, com m vetores coluna line-


armente independentes denomina-se matriz base de A. Uma matriz N ,
m × ( n − m) , obtida de A, com os n − m vetores coluna restantes denomi-
na-se matriz não base.
b) Consideremos uma matriz base B, m × m. O conjunto de índices corres-
pondentes a essa matriz base B, no sistema Ax = b, chama-se conjunto de
índices base. O conjunto com os demais n – m índices chama-se conjunto
de índices não base. Denotamos o conjunto de índices base por IB e o con-
junto de índices não base por IN . Os conjuntos IB e IN têm cardinalidade
m e n − m, respectivamente.
c) Consideremos uma matriz base B, m × m. As variáveis correspondentes a
essa matriz base B, no sistema Ax = b, são denominadas variáveis básicas.
As demais n − m variáveis são as variáveis não básicas. Denotamos o vetor
de variáveis básicas por x B e o vetor de variáveis não básicas por x N .
d) Anulando as n − m variáveis não básicas, obtemos um sistema compatível
determinado, constituído de m equações e m incógnitas. Determinando o
valor das variáveis básicas, obtemos uma solução básica. Ou seja, x ∈ℜ n
é uma solução básica, quando x N = 0 e x B é a solução do sistema linear
Bx B = b.
e) Uma solução básica em que as variáveis básicas são não negativas denomi-
na-se solução básica viável.
f) Uma solução básica viável em que existe ao menos uma variável básica
nula denomina-se solução básica viável degenerada.
Por conveniência, suponhamos que x1 , x2 , ..., xm sejam as variáveis bá-
sicas, que são as coordenadas de x B , e xm+1 , ..., xn sejam as variáveis não bási­
cas, coordenadas de x N . Então, neste caso, os conjuntos IB e IN são como a
seguir:

IB = {1, 2,  , m} e IN = { m + 1, m + 2,  , n} .

Para a resolução do sistema Ax = b, buscamos exprimir x B em função de


x N , a saber:

– 102 –
 xB 
Ax = b ⇒ [ B N ]  N  = b ⇒ BxB + NxN ⇒
 x 

⇒ x B = B−1b − B−1 Nx N . (3.1)

Para x N = 0, x B = B−1b e x é uma solução básica. Se x B = B−1b ≥ 0 para


x N = 0, então x também é uma solução básica viável.

Exemplo 3.5: Considere o sistema linear

x1 + x2 + x3 = 3
x1 + x4 = 3
x1 , x2 , x3 , x4 ≥ 0.

Nesse exemplo, a matriz A e o vetor b são def inidos por

1 1 1 0   3
A=   e b=   .
1 0 0 1  3

Primeiramente, tomamos a matriz base

1 1
B=  ,
1 0 

obtida de A através da primeira e da segunda colunas. Segue-se que o conjun-


to de índices base e o conjunto de índices não base são, respectivamente,
IB = {1, 2} e IN = {3, 4},

a solução básica é
x = [3 0 0 0]T ,

porque o vetor de variáveis não básicas é x N = [ x3 x4 ]T = [0 0]T, e o vetor


de variáveis básicas é calculado por:

– 103 –
1 1  x1   3  x1 + x2 = 3
Bx B = b ⇒     =  ⇒
1 0   x2   3  x1 = 3,

isto é, x B = [ x1 x2 ]T = [3 0]T . Tanto a solução básica viável quanto a solu-


ção básica viável degenerada coincidiram com a solução básica x, uma vez
que x B ≥ 0 e, em particular, x2 = 0 . Agindo de outro modo, tomando-se a
matriz base
1 0 
B=  ,
0 1 

obtida de A através da terceira e da quarta colunas, segue-se que o conjunto


de índices base e o conjunto de índices não base são, respectivamente,

IB = {3, 4} e IN = {1, 2} ,

e a solução básica é

x = [0 0 3 3]T ,

porque o vetor de variáveis não básicas é x N = [ x1 x2 ]T = [0 0]T e o vetor


de variáveis básicas é calculado por

1 0   x3   3  x3 = 3
Bx B = b ⇒     =  ⇒
0 1  x4   3  x4 = 3,

isto é, x B = [ x3 x4 ]T = [3 3]T. Neste caso, a solução básica viável possui


x B > 0 , logo, não é uma solução básica viável degenerada.

Se para um PPL um ponto extremo é uma solução básica viável e vice-


versa, então obteremos uma caracterização mais operacional para pontos extre-
mos, do ponto de vista computacional. É o que se af irma no próximo teorema.

Teorema 3.1: Consideremos o PPL (P). Um ponto viável x ∈ X é ponto extre-


mo se, e somente se, x for uma solução básica viável.

– 104 –
Assim, podemos calcular pontos extremos através do cálculo de soluções
básicas viáveis. Além disso, devemos observar que a correspondência entre
pontos extremos e soluções básicas viáveis não é, em geral, um a um (veja-se,
adiante, o exercício 4).
O próximo resultado caracteriza o conjunto viável de um PPL, formali-
zando, assim, a sua geometria.

Teorema 3.2: Consideremos o PPL (P). Todo conjunto viável X é um poliedro


com um número f inito de pontos extremos e, quando não vazio, possui ao
menos um ponto extremo.

O exemplo que será apresentado a seguir corresponde a um método


gráf ico para se solucionar um PPL.

Exemplo 3.6 (Um método gráf ico): Consideremos o PPL

minimizar z = x1

sujeito a: x1 + x2 = 2
x1, x2  0.

Esse problema possui uma única solução ótima, x* = [0 2]T, porque o


menor valor que podemos ter para x1 é x1 = 0 . Logo, x2 = 2.
Apesar da simplicidade com que obtivemos a solução ótima para esse
problema, poderíamos, também, tê-la obtido pelo seguinte método gráf ico,
conforme mostra a figura 3.3.
Devemos tomar pontos viáveis no conjunto viável X com o menor valor
da função objetivo, uma vez que na solução ótima x * , cT x* ≤ cT x para todo
x ∈ X . Desta forma, relembrando a def inição de hiperplano, o vetor dado
c ∈ℜ n , não nulo, e o número δ = cT x para cada x ∈ X , def inem um hi-
 2
perplano para cada x ∈ X. Na figura 3.3, por exemplo, para x = x1 =   ,
0, 5 0  0 
cT x1 = 2 , e para x = x 2 =   , cT x 2 = 0, 5; e para x = x 3 =  , cT x 3 = 0 .
1, 5   2
Aqui não é possível encontrar outro ponto x ∈ X, tal que cT x ≤ 0 . Portanto,
x* = x3 = [0 2]T é a solução ótima. Observemos que os hiperplanos percorrem
o sentido contrário ao vetor custo c, quando na minimização.

– 105 –
Figura 3.3: Solução do exemplo 3.6 através de um método gráfico

Assim, estamos prontos para enunciar o teorema fundamental da Pro-


gramação Linear.

Teorema 3.3: Consideremos o PPL (P). Se (P) admite solução ótima, então
uma solução ótima é atingida em ao menos um ponto extremo do conjunto
viável.

Na próxima seção, será apresentado o desenvolvimento de um método


para se resolver o problema (P).

3.3 Método simplex primal

Todo método advém da necessidade de resolvermos algum problema.


Nesta seção, estamos interessados na solução dos problemas de PL através do
estudo do método simplex, devido a Dantzig (1951).

– 106 –
Considere-se o PPL (P), no formato padrão,

minimizar z = cT x
(P) sujeito a: Ax = b
x ≥ 0,

em que são dados uma matriz A, m × n, e vetores b ∈ℜ m e c ∈ℜ n, com


0 < m< n .
Sem perda de generalidade, consideramos a matriz A de posto comple-
to, ou seja, A possui uma submatriz quadrada invertível, e o vetor do lado
direito b ≥ 0 , ou seja, nenhum elemento de b é negativo. Se m = n , lançamos
mão dos conteúdos estudados no Capítulo II, porque, neste caso, basta resol-
ver um sistema de equações lineares algébricas.
A ideia do método simplex consiste em caminhar pela fronteira do po-
liedro de um PPL, através de pontos extremos adjacentes com valores da fun-
ção objetivo sempre menores do que os valores anteriores.
Enunciamos, a seguir, um algoritmo denominado algoritmo mestre, na
tentativa de exprimir, sob essa forma, as ideias do método simplex.

Algoritmo 3.1: Algoritmo mestre


Dados: x0 solução básica viável inicial associada a uma matriz base inicial B0 .
k←0 .
Repita
Escolha, se possível, uma nova variável básica daquelas variáveis não básicas.
Escolha, se possível, uma nova variável não básica daquelas variáveis básicas.
Atualize Bk +1 e x k +1.
k ← k +1.
Até que convirja.

Devemos agora responder a uma pergunta chave acerca do algoritmo


mestre:

Como se determina uma solução básica viável inicial?

– 107 –
Esse problema – denominado problema de fase 1 ou, equivalentemen-
te, problema de viabilidade – consiste em encontrar um ponto viável inicial.
Aqui, supomos que o ponto viável inicial é dado, porque a ideia do método
simplex para a fase 2 – problema de otimalidade –, que desenvolvemos neste
capítulo, é semelhante. Esta hipótese é forte, tendo em vista que não tratare-
mos problemas inviáveis de PL.
Considere o problema de PL (P). Denotamos uma solução básica viável
para (P), xˆ ∈ℜ n, associada a uma matriz base B, m × m . Denotamos, tam-
bém, uma matriz não base N, m × ( n − m) . Por def inição, xˆ B = B−1b ≥ 0 e
xˆ N = 0.
De um modo geral, como não podemos garantir que os índices das va-
riáveis básicas e das variáveis não básicas estão ordenados, os conjuntos de
índices base e de índices não base serão representados genericamente, como a
seguir, respectivamente:

IB = { i1 , i2 ,  , im } e IN = { j1 , j2 ,  , jn− m } .

A matriz de coef icientes tecnológicos A, particionada, tem suas colunas


da matriz base e da matriz não base conforme é mostrado a seguir, respecti-
vamente:
B = [ Ai1 Ai2  Aim ] e N = [ A j1 A j2  A jn− m ] ,

em que Ai1 , Ai2 ,  , Aim , A j1 , A j2 ,  , A jn− m representam as colunas da matriz


A correspondentes aos seus respectivos índices.
Analogamente à partição de A, o vetor de custos f ica conforme a seguir:

c B = [ ci1 ci2  cim ]T e c N = [ c j1 c j2  c jn− m ]T .

Uma vez que uma matriz base é conhecida, todo ponto viável x, para (P),
pode ser escrito com o vetor de variáveis básicas

x B = [ xi1 xi2  xim ]T

e com o vetor de variáveis não básicas

x N = [ x j1 x j2  x jn− m ]T .

– 108 –
Desenvolvendo Ax = b, obtemos a expressão (3.1), já vista, a saber:

Ax = b ⇒ Bx B + Nx N = b ⇒

(3.1)
⇒ x B = B−1b − B−1 Nx N .

Desenvolvendo cT x e usando a última igualdade,

c T x = ( c B )T x B + ( c N )T x N = ( c B )T ( B−1b − B−1 Nx N ) + ( c N )T x N

(3.2)
c T x = ( c B )T B−1b + [( c N )T − ( c B )T B−1 N ] x N .

Portanto, de (3.1) e (3.2), e relembrando que xˆ B = B−1b ≥ 0 , podemos


reescrever o problema (P) assim:

minimizar z = ( c B )T B−1b + [( c N )T − ( c B )T B−1 N ] x N


(3.3)
sujeito a: x B = B−1b − B−1 Nx N ≥ 0, x N ≥ 0.

Observe que o valor da função objetivo em (3.3) pode ser reescrito assim:

T
 −1
0   xB 
z = c x = (c ) B b +  N
T B T
−1 T B  N 
.
 c − ( B N ) c   x 

Def inição 3.5 (Custo reduzido): Designamos o vetor

 0 
s= N −1 T B
c − (B N ) c 

como vetor custo reduzido.


Cada componente do vetor s é a taxa de redução no valor da função ob-
jetivo com respeito à mudança na variável não básica.
Historicamente, na publicação de Dantzig (1963), o método simplex foi
formalizado através do formato tabular. Quer dizer, podemos representar o
problema de PL (P) pelo seguinte quadro:

– 109 –
Quadro 3.1: Quadro do simplex

Base ( x B )T ( x N )T RHS
sB = 0 s N = c N − ( B−1 N )T c B − z = − cT xˆ
xˆ B I B−1 N B−1b ≥ 0

No quadro 3.1, na primeira linha estão representadas as variáveis bási-


cas x B e as variáveis não básicas x N. Na segunda linha estão representados
o vetor custo reduzido – conforme a def inição 3.5 – e o negativo do valor da
função objetivo. Na terceira linha está representado o sistema Ax = b parti-
cionado assim:

Ax = b ⇒ Bx B + Nx N = b ⇒ B−1 Bx B + B−1 Nx N = B−1b ⇒ Ix B + B−1 Nx N = B−1b ⇒

 xB 
[ I , B −1
N  −1
  N  = B b,
 x 

em que B−1b é o vetor do lado direito do quadro simpex, denotado por RHS
(right hand side).

Exemplo 3.7: Considere o problema de PL no formato padrão

minimizar z = − x1 − 2 x2
sujeito a: x1 + x2 + x3 = 4
2 x1 + x2 + x4 = 6
x1 + + x5 = 3
x1 , x2 , x3 , x4 , x5 ≥ 0.

Desejamos expressar o PPL no formato tabular segundo a matriz base


def inida pelo conjunto de índices base, IB = {2, 4, 5}, e a matriz não base def i­nida
pelo conjunto de índices não base IN = {1, 3}.

– 110 –
A partição da matriz A que retrata a base corrente é a seguinte:

1 0 0  1 1
 
B = 1 1 0  e N =  2 0  .
0 0 1 1 0 

A sequência de cálculos seguirá o que está mostrado no quadro 3.1.

O vetor de variáveis básicas, x B = B−1b ,

−1
 1 0 0   4  1 0 0   4  4
x = 1 1 0  6  =  −1 1 0  6  =  2 ,
B

0 0 1  3  0 0 1  3  3

e a solução básica viável, x ,

 x2   4  x1  0 
 x   2  x   4
 xB   4     2  
 N  =  x5  =  3  x =  x3  = 0  .
 x   x  0     
 1    x4   2
 x3  0   x5   3

O valor da função objetivo, z = cT x ,

0 
 4
 
z = [ −1 −2 0 0 0] 0  = −8 .
 
 2
 3

– 111 –
Para calcular o vetor custo reduzido, sB = 0 e
T
 1 0 0  −1 1 1  −2
 −1  
s N = c N − ( B−1 N )T c B =   −  1 1 0   2 0   0 
 0   0 0 1   1 0    0 
     

T
  1 0 0  1 1  −2
 −1  
s =   −  −1 1 0   2 0   0 
N

 0    0 0 1 1 0   0 
    

T
1 1   −2
 −1   −1  −2 1 
s =   − 1 −1  0  =   −   =   .
N

 0  1 0   0  0   −2  2
   

Portanto, s = [1 0 2 0 0]T é o vetor custo reduzido.

Note-se que no cálculo anterior

1 1 
B N = 1 −1 .
−1

1 0 

No quadro do simplex, quadro 3.2, temos:

Quadro 3.2: Quadro do simplex para o exemplo 3.7

Base x1 x2 x3 x4 x5 RHS
1 0 2 0 0 −z =8
x2 1 1 1 0 0 4
x4 1 0 −1 1 0 2
x5 1 0 0 0 1 3

– 112 –
Observe, no quadro 3.2, que a matriz identidade I = B−1 B está repre-
sentada pelas colunas de índices em IB = {2, 4, 5}, enquanto que B−1 N pelas
colunas de índices em IN = {1, 3} . O vetor do lado direito do quadro simplex é
obtido por B−1b e, na primeira linha, temos o vetor custo reduzido e o nega-
tivo do valor da função objetivo − z = 8 .
O próximo teorema fornece uma condição suf iciente para que uma so-
lução básica viável seja uma solução ótima.

Teorema 3.4: Se x̂ é uma solução básica viável com vetor custo reduzido não
negativo, então x̂ é uma solução ótima para o problema (P).

Usando o teorema 3.4 no problema de PL do exemplo 3.7, verif icamos


que x = [0 4 0 2 3]T é uma solução ótima, porque o vetor custo redu-
zido s = [1 0 2 0 0]T é não negativo, o que pode ser observado também
na primeira linha do quadro simplex no quadro 3.2.

3.3.1 Mecanismo de mudança de base

Para se entender como o método simplex iterativamente produz uma


nova solução básica viável a partir de uma solução básica viável conheci-
da, é preciso determinar uma direção que se deve seguir sobre uma aresta
do poliedro convexo X. Observando-se o algoritmo 3.1, a escolha de uma
nova variável básica daquelas variáveis não básicas signif ica verif icar se
é possível melhorar o valor da função objetivo a partir da solução básica
viável conhecida, o que é garantido pelo teorema 3.4. Isto é, deve existir
alguma coordenada do vetor custo reduzido negativa. Do mesmo modo,
a escolha, se possível, de uma nova variável não básica daquelas variáveis
básicas signif ica que deve existir uma nova solução básica viável.

Def inição 3.6 (Direção viável): Seja S um subconjunto de n. Um vetor u  n



é uma direção viável a partir de x  S, quando existe λ > 0, tal que, para qual-

quer λ  [0, λ], x + λ u pertence a S.

A Figura 3.4 ilustra duas direções viáveis de um politopo – poliedro


limitado – de x0 a x1 e a x2. Note-se que x 2 = x0 + λ u, para algum λ real.
Em particular, chamaremos a direção viável u de direção de aresta.

– 113 –
x1

Figura 3.4: Direções de arestas num politopo do ℜ2 a partir de x0

Suponhamos que, estando em um ponto extremo – solução básica viável


– xk, para uma matriz base B, desejamos alcançar o ponto extremo adjacente
x k +1 e, para isto, uma variável básica deverá dar lugar a uma variável não
básica. Isto signif ica que apenas uma variável não básica poderá crescer seu
valor a partir de zero, à qual denominaremos xh, h ∈ IN .
Usando-se (3.1), sendo x k = x B = B−1 b o vetor de variáveis básicas asso-
B

B
ciado ao ponto extremo corrente, x k+1 é o vetor de variáveis básicas associado
ao ponto extremo adjacente, caracterizado como

0
0
 
Bk+1 
= x k − B−1 [ A j1
B
x A j2  Ah  A jn−m ]  
 xh 

 
 0 

Bk+1
= x k − B−1 Ah xh .
B
x

De acordo com a def inição 3.6, − B−1 Ah é uma direção de aresta no ℜ m,


enquanto que xh deverá ser o tamanho do passo a ser dado nessa direção, para

– 114 –
se obter um novo ponto extremo. Genericamente, o vetor direção de aresta,
u ∈ℜ n, é expresso como

 − B−1 Ah 
 
 0 
   (3.4)
u=   .
 1 ← h
  
 
 0 

Por conveniência, se designará − B−1 Ah por − d h .


Neste ponto de nossa exposição, surge naturalmente a seguinte pergunta:

Quanto podemos “caminhar” seguindo a direção u


sem perder a viabilidade?

Para responder a essa questão, façamos a seguinte análise: o sistema


Ax = b é expresso da forma x B = B−1b − B−1 Nx N , como a seguir:

xk1 = bˆk1 − d1h xh


xk2 = bˆk2 − d2h xh
   
xki = bˆki − dih xh (3.5)
   
xkm = bˆkm − dmh xh ,

em que bˆki é a iésima componente do termo B−1b , pois ki ∈ IB. Precisamos


determinar o máximo acréscimo que a variável xh poderá sofrer sem perder
viabilidade. Ora, para valores dih > 0, i = 1,  , m, o crescimento de xh não pro-
vocará a saída da base de qualquer variável que se encontra no primeiro mem-
bro, dado que bˆki ≥ 0, ki ∈ IB . Portanto, apenas quando dih > 0, i = 1,  , m,
teremos a saída da base de uma das variáveis do primeiro membro.
A questão agora é a seguinte:

– 115 –
Qual variável sairá da base para dar lugar à variável xh que está entrando?

A análise da expressão

xki bˆki
= − xh , para todo ki ∈ IB , i = 1, ..., m e dih > 0,
dih dih
bˆki
mostra que a menor razão indicará qual variável do primeiro membro
dih
sairá da base mediante o crescimento de xh. Esse critério é conhecido como
teste da razão mínima, que é formalmente expresso no procedimento 3.1.

Procedimento 3.1 (Teste da razão mínima): Escolhida, para entrar na base,


uma variável xh, sendo h ∈ IN , e calculado dih = B−1 Ah com i = 1, ..., m, para
determinar a variável a sair da base sem perder viabilidade, aplicamos o teste
da razão mínima:

bˆkq  bˆk 
h
= min 
i
h
; dih > 0, ki ∈ IB  ⇒ índice kq . (3.6)
dq i=1, ..., m d
i =1,...,
 i 

O índice kq, que resulta do teste da razão mínima, é o índice da variável


que sairá da base, com a garantia de não se perder viabilidade, ou seja, com a
garantia de se alcançar uma nova solução básica viável.
Finalmente, as respostas para as duas perguntas propostas anteriormen-
te são: xkq , kq ∈ IB, sairá da base e

bˆkq
xh = ,
dqh

bˆkq
sendo o valor que xh irá assumir ao entrar na base e também o tamanho
dqh
do passo na direção de aresta obtida por (3.4).

Exemplo 3.8: Considere o PPL no formato padrão do exemplo 3.7 e, também,


a solução básica viável com x B = [ x3 x4 x5 ]T = [4 6 3]T . Supondo que

– 116 –
x2 tenha sido escolhida para entrar na base, calcule o vetor direção de aresta,
d 2 ∈ℜ3 , e a nova solução básica viável.

A partição da matriz A e do vetor x que retrata a base corrente é a


seguinte:

1 0 0  1 1
 
B = 0 1 0  e N =  2 1 ,
0 0 1 1 0 

 x3   4  x1  0 
 x  6   x  0 
 xB   4     2  
 N  =  x5  =  3 ⇒ x =  x3  =  4 ,
 x   x  0     
 1    x4  6 
 x2  0   x5   3

de modo que, IB = {3, 4, 5} e IN = {1, 2} .


Tomamos a coluna da variável x2 em A, designada por A2, e calculamos
a direção d 2 pela aplicação da expressão (3.4).

 − B−1 A2   − d 2 
   
u=  0  =  0 ,
 1   1 
   

em que − B−1 A2 = − d 2 é

−1
1 0 0  1 1
d = 0 1 0  1 = 1 .
2

0 0 1 0  0 

– 117 –
Portanto,
 −1
 −1 1
 
u =  0  e d = 1 .
2

 
0 0 
 1 

A nova solução básica viável é calculada depois de decidir, com base no


teste da razão mínima, qual variável sairá da base sem perder viabilidade.
Então,

4 6  bˆ
min  ,  = 4 ⇒ índice kq = k1 = 3 e 32 = x2 = 4 ,
i =1, 2, 3  1 1  d1

a variável x3 sairá da base e assumirá o valor 0 , enquanto x2 entrará na base


com valor 4.
Finalizando o exemplo, calculamos a solução para a nova matriz base B̂:
IBˆ = {2, 4, 5} e INˆ = {1, 3},

−1
 1 0 0   4
x = 1 1 0  6  ,

0 0 1  3

ˆ ˆ
x B = [4 2 3]T e x N = [0 0]T,

e a nova solução básica viável é

 x1  0 
 x   4
 2  
x =  x3  = 0  .
   
 x4   2
 x5   3

– 118 –
O próximo teorema fornece um critério de possível melhoria para o va-
lor da função objetivo do problema (P).

Teorema 3.5: Considere-se o PPL (P). Seja dada uma solução básica viável x̂
associada a uma matriz base B. Considere-se sh < 0, para algum h ∈ IN , tal
que exista dih > 0 ao menos para algum i = 1, ..., m. Ainda, considere-se

bˆkq  bˆk 
h
= min 
i
h
; dih > 0 , ki ∈ IB . (3.7)
dq i =1,..., m  di 

bˆkq
Então, fazendo xh = a nova variável básica, anulamos xkq fazendo-a va-
dqh
riável não básica, obtendo assim uma nova solução básica viável x, tal que
cT x ≤ cT xˆ .
Usando o teorema 3.5 no problema de PL do exemplo 3.8, verif icamos
no quadro simplex, quadro 3.3, que h ∈{1, 2} = IN e s1 = −1 e s2 = −2 . Além
disso, os vetores d1 = [1 2 1]T e d 2 = [1 1 0]T . Ao escolhermos h = 2
( s2 = −2 < 0 ) o índice para entrar no novo conjunto de índices base, cal-
culamos o mínimo do quociente entre os elementos da última coluna e da
coluna dois, para as coordenadas positivas de d 2. Daí encontramos o índice
kq = 3, que é o índice para entrar no novo conjunto de índices não base. Obser-
vemos as duas setas no quadro 3.3: a seta vertical indica que x2 será a nova va-
riável básica e a seta horizontal indica que x3 será a nova variável não básica.

Quadro 3.3: Quadro do simplex para o exemplo 3.8 para IB = {3, 4, 5}


Base x1 x2 x3 x4 x5 RHS
−1 −2 0 0 0 −z = 0 l1
← x3 1 1 1 0 0 4 l2
x4 2 1 0 1 0 6 l3
x5 1 0 0 0 1 3 l4

No quadro 3.3, o número 1 na interseção da linha l2 (seta horizontal) e


coluna referente a x2 (seta vertical) é o elemento pivô. Assim, devemos zerar

– 119 –
o restante dos elementos dessa coluna, usando as seguintes operações elemen-
tares: l3 ← l3 − l2 e l1 ← l1 + 2l2 . O próximo quadro do simplex, quadro 3.4,
mostra o resultado, que coincide com o quadro 3.2 do exemplo anterior.

Quadro 3.4: Quadro do simplex para o exemplo 3.8 para IBˆ = {2, 4, 5}

Base x1 x2 x3 x4 x5 RHS
1 0 2 0 0 −z =8
x2 1 1 1 0 0 4
x4 1 0 −1 1 0 2
x5 1 0 0 0 1 3

Exemplo 3.9: Considere o PPL no formato padrão

minimizar − x1
sujeito a : x1 − x2 = 2
x1 , x2 ≥ 0.

Seja a solução básica viável com o vetor de variável básica x B = x1 = 2. Su-


pondo que x2 tenha sido escolhida para entrar na base, calcule o vetor direção
da aresta, d 2 ∈ℜ, e analise o PPL.

A partição da matriz A e do vetor x que retrata a base corrente é a


seguinte:
 x B   x1   2
B = 1 , N = −1 e x =  N  =   =   ,
 x   x2  0 
de modo que, IB = {1} e IN = {2} .
Tomamos a coluna da variável x2 em A, designada por A2, e calculamos
a direção d 2 pela aplicação da expressão (3.4)

 − B−1 A2   − d 2 
u=  = ,
 1  1 
em que − B−1 A2 = − d 2 é

d 2 = (1) −1 ( −1) = −1 .

– 120 –
Portanto,

1
u =   e d 2 = −1 .
1

Isto signif ica que não se pode obter uma nova variável básica. Concluímos
que o PPL é ilimitado.
Esse fato, no exemplo 3.9, sugere o seguinte resultado:

Teorema 3.6: Considere o PPL (P). Seja dada uma solução básica viável xˆ , as-
sociada a uma matriz base B. Se tivermos sh < 0 e d h ≤ 0 , para algum h ∈ IN ,
então (P) é um problema ilimitado.

Usando o teorema 3.6 no problema do exemplo 3.9, verif icamos, no qua-


dro do simplex, quadro 3.5, que h ∈{2} = IN e s2 = −1 < 0 . Todavia, o vetor
d 2 = −1 < 0 . Observemos no quadro 3.5 que x2, como uma nova variável básica,
melhora o valor da função objetivo, mas em uma direção que não conduz a uma
nova solução básica viável, uma vez que o procedimento 3.1 não se verif ica.

Quadro 3.5: Quadro simplex para o exemplo 3.9 em que o PPL é ilimitado

Base x1 x2 RHS
0 −1 −z = 2
x1 1 −1 2

Com base nas análises apresentadas aqui e nas seções precedentes, pode-
mos estabelecer os passos do algoritmo simplex. Para a entrada na base e para
a saída da base, utilizaremos a regra do menor índice – ou regra de Bland –
para garantirmos convergência.

3.3.2 O algoritmo simplex

Finalmente, estabeleceremos o algoritmo simplex revisado, fase 2, para


resolver o PPL. No método simplex pode ocorrer um fenômeno denominado
ciclagem, que consiste na volta para a mesma matriz base após um certo nú-
mero de iterações do algoritmo. Assim, enunciamos o algoritmo simplex com
uma técnica anticiclagem, ou seja, com a regra de Bland (BLAND, 1977).

– 121 –
Algoritmo 3.2: Simplex
Dados: uma solução básica viável x0 associada a uma matriz base inicial
B0 , um conjunto de índices base IB0 e um conjunto de índices não base IN0 .
k ← 0.
Repita
Calcule o vetor multiplicador simplex y ∈ R m , resolvendo o sistema linear
B
Bk T y = c k .

Calcule o vetor custo reduzido s ∈ R n , tal que

sl = 0 , para todo l ∈ IBk ,

sl = cl − yT Al para todo l ∈ IN k .

Se s ≥ 0 ,
então x k é uma solução ótima.
Senão,
entrada na base: calcule o novo índice base

h = min {l; sl < 0} .


l ∈IN k

    Calcule o vetor direção de aresta d h ∈ R m,,resolvendo o sistema linear

Bk d h = Ah .

    Se d h ≤ 0,
    então, o problema é ilimitado.
    Senão,
     saída da base: calcule o novo índice não base

 xkki  xk
k


kq = min  ki0 ; h0 = min  hi ; dih > 0 , ki ∈ IBk  .
ki0 ∈IBk
 di0 i =1,..., m  di 

     Atualize os índices base e não base, respectivamente,

IBk+1 ← ( IBk ∪ { h}) − { kq }

– 122 –
IN k+1 ← ( IN k ∪ { kq }) − { h} .

     Atualize a matriz base: substitua a coluna Akq de A em Bk pela


          coluna Ah de A, obtendo, assim, Bk +1.
       Calcule a nova solução básica viável x k +1 ∈ R n , resolvendo o sistema
linear

Bk+1 k +1
Bk +1 x = b; xkq ← 0.

k ← k +1.

Até que s ≥ 0 ou d h ≤ 0.

Temos algumas observações a fazer acerca deste algoritmo. Inicialmen-


te, observe que são dados os conjuntos de índices base IB0 e não base IN0 . Isto
se deve à nossa conveniência de escrita e de implementação. Depois, o vetor
custo reduzido s é calculado pela def inição em dois passos: primeiro, refe-
renciamos o vetor multiplicador simplex y; e, segundo, fazemos o cálculo das
coordenadas de s associadas ao conjunto de índices não base da iteração cor-
rente usando o vetor multiplicador simplex em vez do cálculo de inversão de
matrizes. Observe, também, que o critério de parada exibindo uma solução
ótima é devido ao teorema 3.4, e o critério de parada certif icando o problema
ilimitado é devido ao teorema 3.6. Ainda, quando possíveis, as escolhas tanto
para a entrada na base quanto para a saída da base são devidas ao teorema 3.5,
acrescido da técnica anticiclagem do menor índice – regra de Bland. Observe
ainda que atualizamos a nova matriz base por uma troca de colunas na matriz
A. Isto é o que caracteriza o método simplex revisado, isto é, o esforço compu-
tacional é muito menor do que no método simplex tradicional. Finalmente,
é importante af irmar que, com a hipótese de X não vazio, o método simplex
converge, tendo em vista que encontra uma solução ótima para (P), ou cer-
tif ica que o problema (P) é ilimitado.

Exemplo 3.10: Determine a solução ótima do problema de PL, conhecida a


solução básica viável inicial correspondente aos índices base IB = {2, 3} e não
base IN = {1, 4} :

– 123 –
minimizar z = x1 + 3 x2
sujeito a: − x1 + x2 − x3 = 5
x1 + x2 − x4 = 8.
x1 , x2 , x3 , x4 ≥ 0

Vamos aplicar, passo a passo, o algoritmo simplex 3.2.

Inicialização:

IB0 = {2, 3} e IN0 = {1, 4} ,

e a matriz base

1 −1
B0 =  ,
1 0 

a solução básica viável inicial é

−1
 x2  1 −1 5  0 1 5 8 
x B0 =   =     =    ⇒ x B0 =   ,
 x3  1 0  8   −1 1 8  3

 x1  0 
x N0 =   =   .
 x4  0 

Quer dizer, x0 = [0 8 3 0]T .

Passo 1: Primeiro teste de convergência:


Na iteração k = 0, o vetor multiplicador simplex y ∈ℜ2 é

 0 1
yT = ( c B0 )T B0−1 = [3 0]   = [0 3].
 −1 1
O vetor custo reduzido é

– 124 –
sl = 0 , para todo l ∈{2, 3},
e
sl = cl − yT Al para todo l ∈{1, 4} ,

 s1 = c1 − y A1
T

 ,
 s4 = c4 − y A4
T

 −1
s1 = 1 − [0 3]   = 1 − (0 × ( −1) + 3 × 1) = −2 ⇒ s1 = −2
1
0
s4 = 0 − [0 3]   = 0 − (0 × 0 + 3 × ( −1)) ⇒ s4 = 3 .
 −1
A existência de uma componente do vetor custo reduzido negativa sig-
nif ica que a base corrente não é ótima. Então, passamos ao próximo passo.

Passo 2: Mudança de base ou segundo teste de convergência:


Escolhemos para entrar na base a variável x1, que tem custo reduzido negati-
vo, s1 = −2 . Então,
índice h = 1 .

A direção d1 ∈ R2 é

1 −1  d1   −1
1
 d11  1 −1 −1  −1  0 1  −1 1
=
1 0   1   1  ⇒  1 =    =   =   .
   d2     d2  1 0   1   −1 1  1   2

Em seguida, iremos escolher uma variável para sair da base, observando


inicialmente o teste da razão mínima,
x0kq  x20 x30  8 3  3
1
= min  1
, 1  = min  ,  = ,
dq i =1,2  d1 d2  i =1,2  1 2  2

índice kq = k2 = 3 .
Concluída a mudança de base, no próximo passo atualizaremos a solu-
ção básica viável.

– 125 –
Passo 3: Atualização da base:
Atualizamos os índices base e não base,

IB1 = {2, 1} ,
e
IN1 = {3, 4} .

Atualizamos a matriz base,

1 −1
B1 =  .
1 1 

Calculamos a nova solução básica viável,

−1
 x2  1 −1 5  1 2 1
2   5 13 2 
x B1 =   =    = 1    ⇒ x B1
= 3 ,
 x1  1 1  8   − 2 2  8 
1
 2

 x3  0 
x N1 =   =   .
 x4  0 

Incrementamos k , k = 1, e retornamos ao passo 1.

Passo 1: Primeiro teste de convergência:


Na iteração k = 1, o vetor multiplicador simplex y ∈ℜ2 é

 12 1
2
yT = ( c B )T B1−1 = [3 1]  1  = [1 2] ,
− 2
1
2
O vetor custo reduzido é
sl = 0 , para para todo l ∈{2, 1} ,
e
sl = cl − yT Al para todo l ∈{3, 4} ,

 s3 = c3 − yT A3
 ,
 s4 = c4 − y A4
T

– 126 –
 −1
s3 = 0 − [1 2]   = 0 − (1 × ( −1) + 2 × 0) = 1 ⇒ s3 = 1
0

0
s4 = 0 − [1 2]   = 0 − (1 × 0 + 2 × ( −1)) ⇒ s4 = 2.
 −1

Observamos que todas as componentes do vetor custo reduzido são não


negativas, o que signif ica que a base corrente é ótima.
Finalmente, a solução ótima do PPL é x1, com valor da função objetivo
z, a saber:
 32 
13 
0 0] , z = c x = [1 3 0 0]   = 21.
2
x1 = [ 3 2 13 T T 1
2
0
 
0

3.4 Dualidade em Programação Linear

A todo problema de Programação Linear podemos associar um outro


problema, composto de variáveis distintas, mas que guarda estreita relação
com o primeiro quanto à solução e à interpretação dos resultados.
Ao problema de PL designado por (P) da seção 3.1, que doravante cha-
maremos de primal, está associado o problema (D) conhecido como problema
dual, definido a seguir:

maximizar w = bT y
(D) sujeito a: AT y ≤ c
y irrestrita.

Chamamos a atenção do leitor para o fato de que os dados do problema


(D) são os mesmos do problema (P), embora existam diferenças nas relações
lógico-matemáticas das restrições, dentre outras.

– 127 –
Para clareza da exposição, será solucionado um exemplo de obtenção de
um problema dual dado um problema primal.

Exemplo 3.11: Considere o problema de PL do exemplo 3.7. Desejamos escre-


ver o problema de PL dual associado.

Em primeiro lugar, por comparação, constatamos que o PPL do exem-


plo 3.7 está escrito no formato padrão, tal como estabelecido na seção 3.1, e
foi designado como problema (P). Para solucionar o exemplo, nos guiaremos
pela forma matemática do problema (D). Portanto, os dados do problema são:
a matriz de coeficientes tecnológicos, A ∈ℜ3× 5 ,

1 1 1 0 0 
A =  2 1 0 1 0  ,
1 0 0 0 1

e os vetores c e b, de dimensões 5 × 1 e 3 × 1 , respectivamente,

 −1
 −2
   4
c=  0 , b = 6  .
 
0  3
 0 

Concluímos que o vetor y do problema dual tem dimensão 3 × 1 , sendo


 y1 
y =  y2  .
 y3 
Finalmente, o problema dual do PPL do exemplo 3.7, na forma matricial, é
como apresentado a seguir:

– 128 –
maximizar w = [4 6 3] y
1 1
2  −1
1 01  −2
   
(D) sujeito a: 1 0 y ≤  0  ,
0
   
0 1
0 0
0 1
0  0 
y irrestrita.;

y irrestrita significa que não são impostas quaisquer restrições às variáveis y1, y2 e y3.
Uma maneira de tratar a dualidade em Programação Linear é trabalhar
com os problemas primal e dual em par, expressos nas chamadas formas ca-
nônicas.

3.4.1 Forma canônica da dualidade

Suponha que o problema primal seja escrito na forma seguinte:

minimizar z = cT x
(PC) sujeito a: Ax ≥ b
x ≥ 0.

a qual denominamos de forma canônica primal, cuja sigla é PC.

A forma canônica do problema dual, DC, é como mostrada a seguir:

maximizar w = bT y
(DC) sujeito a: AT y ≤ c
y ≥ 0.

Para os dois problemas (PC) e (DC), os dados representados pela matriz


A e pelos vetores c e b possuem dimensões m × n , n × 1 e m × 1 , respectiva-
mente, sendo m < n .

– 129 –
Exemplo 3.12: Considere o PPL a que chamamos de primal

minimizar z = 4 x1 + 3 x2
sujeito a : 2x1 + x2 ≥ 3
x1 + x2 ≥ 2
x1 , x2 ≥ 0.

Desejamos obter o seu correspondente problema dual.


Desde que o PPL do exemplo está escrito na forma canônica, a obtenção do
problema dual é imediata, bastando nos orientarmos pelas formas dos problemas
(PC) e (DC). O problema dual possui, então, a forma apresentada a seguir:

maximizar w = 3 y1 + 2 y2
sujeito a : 2y1 + y2 ≤ 4
y1 + y2 ≤ 3
y1 , y2 ≥ 0.

Existem interessantes relações matemáticas entre o problema primal e o


problema dual. Este será o objeto da próxima seção.

3.4.2 Relações entre os problemas primal e dual

As relações entre um problema de PL e seu problema dual podem re-


velar-se extremamente úteis em inúmeras situações. Talvez a maior utilidade
das relações existentes entre um problema primal e seu dual resida na possibi-
lidade de uso dessas relações em demonstrações de lemas, corolários e teore-
mas da Programação Linear. Apesar de demonstrações serem essenciais tanto
na proposição de novas teorias quanto no desenvolvimento de novos métodos
de solução, os desenvolvimentos e desdobramentos teóricos serão omitidos,
tendo em vista a proposta deste texto.
As relações mais conhecidas entre os problemas (PC) e (DC) dizem res-
peito às suas funções objetivo. Enunciaremos primeiramente as propriedades
conhecidas como ‘dualidade fraca’ e ‘dualidade forte’, numeradas por 3.1 e
3.2, respectivamente.

– 130 –
Propriedade 3.1: Considere os problemas (PC) e (DC): se x̂ é uma solução viável
do problema primal (PC) e ŷ é uma solução viável do problema dual (DC), então

cT xˆ ≥ bT yˆ .

É oportuno salientar que, para ŷ ser uma solução viável do problema


(DC), é necessário apenas que as restrições AT y ≤ c e y ≥ 0 sejam satisfeitas,
ou seja, AT yˆ ≤ c e yˆ ≥ 0 sejam verificadas simultaneamente.
A propriedade da ‘dualidade forte’ relaciona as soluções ótimas de am-
bos os problemas.

Propriedade 3.2: Se x̂ é uma solução viável do problema primal (PC) e ŷ


é uma solução viável do problema dual (DC), então existe x * , uma solução
ótima para (PC), e y * , uma solução ótima para (DC), e a seguinte igualdade
é verdadeira:
cT x* = bT y * .

A primeira propriedade estabelece que a solução do problema (PC) é um


limitante superior da solução do problema (DC), ou seja, o valor da função
objetivo de (PC) é no mínimo igual ao respectivo valor para (DC). A ‘dua-
lidade fraca’ descreve a relação entre qualquer par de soluções do primal e
do dual em que ambas sejam viáveis para seus respectivos problemas, não se
exigindo que tais soluções sejam soluções básicas viáveis.
Por exemplo, em referência aos problemas do exemplo 3.12, são dados
os vetores x ' e x " , e y' e y " , relacionados aos problemas primal e dual, res-
pectivamente:

 2 1 1 1


x ' =  5  ; x " =   ; y' =   e y " =   .
 2 1 1  2

Desejamos verificar a propriedade 3.1 para os problemas citados e para os


respectivos vetores. A solução é como apresentada a seguir.
Primeiramente verificamos se os vetores são soluções viáveis dos seus
problemas. Substituiremos os vetores x ' e x " no lado esquerdo das restrições
do problema primal:

– 131 –
2 x1 + x2 ≥ 3
x1 + x2 ≥ 2
x1 , x2 ≥ 0;
- para x ' ,
2 × (2) + 5
2 = 13
2

2 + 5
2 = 9
2

2, 5
2 > 0 ;
- para x " ,
2 × (1) + 1 = 3
1 + 1 = 2
1 > 0
1 > 0..

Os cálculos mostram que x ' e x '' são soluções viáveis do problema primal.
De modo análogo, substituiremos os vetores y' e y'' no lado esquerdo das
restrições do problema dual:

2 y1 + y2 ≤ 4
y1 + y2 ≤ 3
y1 , y2 ≥ 0,
- para y' ,
2 × (1) + 1 = 3
1 + 1 = 2
1, 1 > 0,
- para y " ,

2 × (1) + 2 = 4
1 + 2 = 3
1 > 0
2 > 0. .

Os cálculos mostram que y' e y " são soluções viáveis do problema dual. Para
verificar a propriedade 3.1, devemos substituir as soluções viáveis nas funções
objetivo dos problemas. Iniciamos com o problema primal.

– 132 –
z = 4 x1 + 3 x2 ,
- para x ' ,
z ’ = 4 × ( 2) + 3 × ( 5 2 ) ⇒ z ’ = 31 2 ,
- para x " ,
z " = 4 × (1) + 3 × (1) ⇒ z " = 7 .

De modo análogo, para o problema dual.


w = 3 y1 + 2 y2 ,
- para y ' ,
w ’ = 3 × (1) + 2 × (1) ⇒ w ’ = 5 ,
- para y " ,
w " = 3 × (1) + 2 × ( 2) ⇒ w " = 7 .

Consequentemente, mediante os resultados obtidos, concluímos que


cT x ≥ bT y para as soluções viáveis dadas.

A propriedade 3.2, por sua vez, se aplica às soluções ótimas dos proble-
mas primal e dual. Para consolidar o conceito, considere o quadro do simplex
3.6 com a solução ótima do problema primal do exemplo 3.12.

Quadro 3.6: Quadro do simplex ótimo para o problema primal do exemplo 3.12
Base x1 x2 x3 x4 RHS
0 0 1 2 − z = −7
x1 1 0 −1 1 1
x2 0 1 1 −2 1

Considerando os problemas nos formatos indicados no exemplo 3.12, ou


seja, em que exibem apenas duas variáveis, a solução ótima extraída do qua-
dro 3.6 é: x* = [1 1]T . Da propriedade 3.2, concluímos dos resultados x " e
y " dos cálculos anteriormente feitos que a solução ótima do problema dual
é y* = [1 2]T . Ao substituirmos essas soluções ótimas nas funções objetivo,
verificamos que cT x* = 7 e bT y* = 7 , consequentemente, cT x* = bT y * . Isto
ilustra a validade da propriedade 3.2 para os problemas primal e dual do exem-
plo 3.12.

– 133 –
Propriedade 3.3: Se um dos problemas primal ou dual for um problema ilimi-
tado, então o outro será um problema inviável.
O leitor poderá verificar facilmente a propriedade 3.3, considerando o
exemplo a seguir.

Exemplo 3.13: O seguinte PPL é ilimitado conforme exemplo 3.9

minimizar z = − x1
sujeitoa: x1 ≥ 2
x1 ≥ 0.

Desejamos obter o problema dual correspondente e analisar o seu conjunto


solução, com vistas à verificação da propriedade 3.3.
A obtenção do problema dual é imediata, porque o PPL está na forma
canônica,
maximizar w = 2 y1
sujeitoa: y1 ≤ −1
y1 ≥ 0.

A análise das restrições do problema dual obtido mostra claramente que


é impossível atender às duas restrições. Portanto, o problema dual não possui
solução, ou seja, é um problema inviável. A propriedade 3.3 está verificada.
As relações existentes entre o problema primal e o problema dual, par-
ticularmente quando admitem soluções ótimas, também se estendem ao
processo de solução desses problemas. Este assunto será tratado na seção sub-
sequente.

3.4.3 Relação entre as soluções ótimas dos problemas primal e dual

Primeiramente iremos relembrar alguns passos do algoritmo simplex 3.2.


Quando resolvemos um PPL primal através do algoritmo simplex 3.2, calcula-
mos em uma das etapas o vetor multiplicador simplex, o qual propositalmente
designamos pelo vetor y . Para a iteração k e uma base específica, o vetor mul-
tiplicador das restrições do primal é obtido ao resolver o sistema linear

– 134 –
B
Bk T y = c k .

No mesmo algoritmo, os custos reduzidos são calculados como a seguir:

sl = 0 , para todo l ∈ IBk, e

sl = cl − yT Al para todo l ∈ IN k.

A condição de otimalidade é alcançada quando, para uma solução básica


viável, os custos reduzidos são não negativos.
O que ocorre, na verdade, é que, ao resolvermos pelo método simplex
(por exemplo, o algoritmo 3.2) um dado PPL primal, estamos paralelamente
solucionando o PPL dual. Em outras palavras, os cálculos efetuados durante a
execução dos passos do algoritmo contêm resultados que também pertencem
ao problema dual.
A observação do quadro do simplex apresentado no quadro 3.6 revela
interessante inter-relacionamento entre as soluções dos problemas primal e
dual. Na linha l1 do quadro 3.6 é possível identificar os valores 0, 0, 1 e 2, que
são os custos reduzidos referentes aos índices base e não base do PPL primal:
IB = {1, 2} e IN = {3, 4} . Vamos resolver um exemplo.

Exemplo 3.14: Considere o PPL primal no formato padrão

minimizar z = 4 x1 + 3 x2 + 0 x3 + 0 x4
sujeito a: 2 x1 + x2 − x3 = 3
x1 + x2 − x4 = 2
x1 , x2 , x3 , x4 ≥ 0.

Desejamos obter a solução do problema dual ao solucionar o PPL pri-


mal pela aplicação do algoritmo 3.2.
Partimos da base que está mostrada no quadro do simplex 3.6, isto é,
IB = {1, 2} . A matriz base B e o vetor c B são:

 2 1 B  4
B=   ; c =  3 .
1 1  

– 135 –
O objetivo é calcular o vetor multiplicador simplex correspondente aos índi-
ces base IB = {1, 2} . A matriz inversa de BT e o produto dessa matriz com o
vetor c B são mostrados a seguir:

 1 −1  1 −1  4 1


( BT ) −1 =  ;    =   .
 −1 2   −1 2   3  2

Os custos reduzidos relativos a essa solução são:

s1 = 0 ,
s2 = 0 ,

 −1
s3 = 0 − [1 2]   ⇒ s3 = 1 ,
0

0
s4 = 0 − [1 2]   ⇒ s4 = 2 ,
 −1

mostrando que a base corrente é ótima. Por sua vez, o problema dual corres-
pondente é:

maximizar w = 3y1 + 2y2 + 01 + 02 + 03 + 04


sujeito a: 2y1 + y2 + α1 = 4
y1 + y2 + α2 = 3
− y1 + α3 = 0
− y2 + α4 = 0
y1 irrestrita
y2 irrestrita
α1 , α2 , α3 , α4 ≥ 0,

– 136 –
em que acrescentamos variáveis de folga, α1 , α 2 , α 3 e α 4 . Agora, observe-
mos que o produto da matriz inversa de BT com o vetor c B , calculado ante-
riormente, é o multiplicador simplex do algoritmo 3.2, que é a solução ótima
do dual, isto é, y* = [1 2]T . Ainda, consideremos o quadro do simplex 3.6.
Os custos reduzidos lidos na primeira linha do quadro 3.6 são exatamente os
valores das variáveis de folga, isto é, α1 = 0 , α 2 = 0 , α 3 = 1 e α 4 = 2 .
Na seção 3.4.1 foram apresentados os dois problemas primal e dual que
se apresentavam em suas formas canônicas. Entretanto, nem sempre o pro-
blema cujo dual desejamos obter está expresso na forma canônica. Uma regra
simples e de aplicação direta pode ser utilizada para a obtenção do PPL dual
a partir de um PPL primal.

3.4.4 Regras de escrita do problema dual a partir de um problema primal

De modo objetivo, as regras são resumidas no quadro 3.7.

Quadro 3.7: Regras de escrita do problema dual dado o problema primal


PPL de PPL de
minimização maximização
≥0 ↔ ≤
≤0 ↔ ≥
variáveis restrições
irrestrita ↔ =
≥ ↔ ≥0
≤ ↔ ≤0
restrições variáveis
= ↔ irrestrita

Para a aplicação das regras mostradas no quadro 3.7, é preciso associar a


cada restrição do problema primal uma variável do problema dual e vice-versa.
Para ilustrar a aplicação dessas regras, apresentaremos a seguir um exemplo.

Exemplo 3.15: Escrever o problema dual correspondente ao problema primal


dado a seguir
minimizar z = x1 − x2
sujeito a: x1 + 3 x2 ≤ 2
− x1 + 5 x2 ≥ 1
2 x1 − x2 = 3
x1 , x2 ≥ 0.

– 137 –
Concluímos de imediato que o problema dual possuirá três variáveis, sen-
do cada uma associada a uma restrição do problema primal, como mostrado:

col1 col2 col3


↓ ↓ ↓

x1 + 3 x2 ≤ 2 ← y1
− x1 + 5 x2 ≥ 1 ← y2
2 x1 − x2 = 3 ← y3 .

Associamos também a cada uma das variáveis x1 e x2 do problema


primal uma restrição do problema dual. Isto implica que o problema dual
possuirá duas restrições, além das restrições de suas variáveis. Em seguida,
consultamos o quadro 3.7 e, simultaneamente, observamos as associações des-
critas, para então escrever o problema dual:
- se o PPL primal é de minimização, o problema dual é de maximização, com
função objetivo composta dos elementos da coluna 3,

maximizar w = 2 y1 + y2 + 3 y3 ;

- se, para o problema de minimização, a primeira restrição é do tipo ≤, a va-


riável y1 será y1 ≤ 0 ;
- se, para o problema de minimização, a segunda restrição é do tipo ≥, a vari-
ável y2 será y2 ≥ 0 ;
- para a restrição de igualdade, a variável será irrestrita, portanto, y3 irrestrita;
- no problema de minimização, as variáveis são x1 ≥ 0 e x2 ≥ 0 , indicando
conforme o quadro 3.7 que as restrições do problema dual (que é de maxi-
mização) são do tipo ≤;
- finalmente, lembrando da transposição da matriz de coeficientes e reunindo
todas as informações, concluímos, para o exemplo, que o problema dual tem
a seguinte forma:
maximizar w = 2 y1 + y2 + 3 y3
sujeito a : y1 − y2 + 2 y3 ≤ 1
3 y1 + 5 y2 − y3 ≤ −1
y1 ≤ 0
y2 ≥ 0
y3 irrestrita.

– 138 –
As propriedades apresentadas anteriormente e as relações entre as soluções,
além dos exemplos resolvidos, nos habilitam a enunciar um importante teorema.

3.4.5 O teorema fundamental da dualidade

Neste ponto estamos preparados para enunciar o teorema fundamental


da dualidade.

Teorema 3.7: Em relação aos problemas primal e dual de Programação Line-


ar, apenas uma das assertivas é verdadeira:
1. Ambos possuem soluções ótimas, com valores das funções objetivos iguais.
2. Um problema é ilimitado e o outro é um problema inviável.
3. Ambos são problemas inviáveis.

Com base nesse importante teorema vemos que a dualidade nem sempre
pressupõe simetria entre os dois problemas.
O estudo da dualidade em Programação Linear proporciona a compreen-
são de importantes conceitos dessa fascinante área da Pesquisa Operacional. Um
desses conceitos, de crucial relevância em estudos mais aprofundados da teoria da
Otimização, consiste nas condições de otimalidade, conhecidas como condições de
Karush-Kuhn-Tucker, que foram estabelecidas em 1939, preliminarmente para a
Programação Não Linear, portanto, antes do advento do algoritmo simplex.
A próxima seção irá tratar das condições de Karush-Kuhn-Tucker para
a Programação Linear.

3.4.6 Condições de Karush-Kuhn-Tucker para a Programação Linear

Sejam os problemas (PC) e (DC) tal como definidos na seção 3.4.1. O


enunciado das condições de Karush-Kuhn-Tucker é como segue: as condi-
ções necessárias e suficientes para o vetor x * ser uma solução ótima do (PC) é
que exista um vetor y * tal que
1. Ax* ≥ b , x* ≥ 0
2. AT y* ≤ c , y* ≥ 0
3. ( Ax * − b)T y* = 0 ,
( c − AT y*)T x* = 0 .

– 139 –
As condições 1 e 2 simplesmente requerem que x * e y * devem ser so-
luções viáveis dos problemas primal e dual, respectivamente, enquanto que
a condição 3, também conhecida como condição de folgas complementares,
fornece cT x* = bT y * .
Estamos prontos para apresentar um método que teve origem na duali-
dade: o método dual simplex, proposto por Lemke, em 1954.

3.4.7 Método dual simplex

O método simplex, conforme estudado anteriormente, inicia com uma


solução básica viável para o PPL e se ‘move’ sempre através de soluções bá-
sicas viáveis em direção a uma solução ótima, buscando satisfazer o teste de
otimalidade (isto é, custos reduzidos não negativos). Por seu turno, o método
dual simplex inicia com uma solução básica inviável para o PPL e ‘caminha’
na direção de uma solução ótima, esforçando-se para alcançar a viabilidade.
Neste texto abordaremos o método dual simplex apenas através do for-
mato tabular. Embora seja possível escrever um algoritmo dual simplex da
mesma forma que foi apresentado o algoritmo simplex 3.2, essa tarefa será
deixada para o leitor (veja o LabPL em http://www2.ucg.br/Institutos/Lab-
PL/Arquivos/Simplex_Dual.pdf).
Os passos principais do método dual simplex são como mostrados a se-
guir.

Algoritmo 3.3: Dual simplex tabular.


Dados: uma solução básica inviável x0 associada a um quadro do simplex em que
    a linha de custos reduzidos tenha somente elementos não negativos, isto é, s ≥ 0 .
Quadro 3.8: Quadro do dual simplex
Base ( x B )T ( x N )T RHS
0  0  0 s j1  s j q  s j n− m − z = − cT xˆ
xˆ k1 1  0  0 aˆ k1 j1  aˆ k1 jq  aˆ k1 jn− m bˆk1

           
xˆ ki 0  1  0 aˆ ki j1  aˆ ki jq  aˆ ki jn− m bˆki
           
ˆxkm 0  0  1 aˆ k j  aˆ km jq  aˆ km jn− m bˆ
m 1 km

– 140 –
Por solução básica inviável entendemos que exista pelo menos um elemento
bˆki negativo, ou seja, um xˆ ki < 0 .

Passo 1. Se todos os bˆki ≥ 0 , pare; a solução básica atual é ótima porque a via-
bilidade foi alcançada. Em caso contrário, selecione a linha r do pivô dentre
{
aquelas que bˆki < 0 , xˆ r = min bˆki ; bˆki < 0 .
1≤ i ≤ m
}
Passo 2. Denote por aˆ rjq o elemento da linha r e da jotaqueésima coluna do
quadro corrente. Se aˆ rjq ≥ 0 para todo jq , pare; o problema dual é ilimitado
e o primal é inviável. Em caso contrário, selecione a coluna je do pivô pelo
seguinte teste da razão mínima:
 sj  s j 
je = min  j p0 ; − p = min  − q ; aˆ rjq < 0 .
j p0 = j1 ,..., jn− m aˆ rj p jq = j1 ,..., jn− m ˆ
 arjq 

Passo 3. Efetue o pivoteamento em torno de aˆ rje e retorne ao passo 1.

Com o propósito de exemplificar a aplicação do método dual simplex


tabular, será resolvido um exemplo.

Exemplo 3.16: Considere o PPL

minimizar z = 4 x1 + 3 x2
sujeito a : 2x1 + x2 ≥ 3
x1 + x2 ≥ 2
x1 , x2 ≥ 0.

Desejamos obter sua solução ótima por meio da aplicação do método dual
simplex tabular.
O quadro 3.9 exibe uma solução básica inviável, porém com s ≥ 0 .

Quadro 3.9: Quadro do simplex referente a uma solução básica inviável inicial
Base x1 x2 x3 x4 RHS
4 3 0 0 0 l1
x3 −2 −1 1 0 −3 l2
x4 −1 −1 0 1 −2 l3

– 141 –
A aplicação do método é como mostrada a seguir:
Quadro 3.10: Quadro do simplex após a execução dos passos 1 e 2 ( l2 é a linha do pivô)

Base x1 x2 x3 x4 RHS
4 3 0 0 0 l1
← x3 −2 −1 1 0 −3 l2
x4 −1 −1 0 1 −2 l3

Após efetuar o pivoteamento em torno de −2 obtemos o quadro 3.11.

Quadro 3.11: Quadro do simplex após o pivoteamento


Base x1 x2 x3 x4 RHS
0 1 2 0 −6 l1
x1 1 1
2 − 12 0 3
2 l2
x4 0 − 12 − 12 1 − 12 l3

De modo análogo, escolhemos a nova linha do pivô, l3 , e a variável para en-


trar na base, x2 .

Quadro 3.12: Quadro do simplex após a execução dos passos 1 e 2 ( l3 é a linha do pivô)

Base x1 x2 x3 x4 RHS
0 1 2 0 −6 l1
x1 1 1
2 − 1
2 0 3
2 l2
← x4 0 − 1
2 − 1
2 1 − 12 l3

Efetuamos o pivoteamento em torno de − 1 2 e obtemos o quadro 3.13.

Quadro 3.13: Quadro do simplex após o pivoteamento com viabilidade alcançada


Base x1 x2 x3 x4 RHS
0 0 1 2 −7 l1
x1 1 0 −1 1 1 l2
x2 0 1 1 −2 1 l3

– 142 –
Constatamos no quadro 3.13 que a viabilidade foi alcançada (vide as
duas últimas linhas da coluna RHS). Os custos reduzidos foram mantidos não
negativos durante todo o processamento. Consequentemente, o quadro con-
tém a solução ótima do PPL, que é x* = [1 1 0 0 ] com o valor da função
T

objetivo igual a 7.
Dentre as aplicações da dualidade em Programação Linear, destaca-se a
análise de sensibilidade, também conhecida por análise pós-otimização. Nessa
análise, partindo de um PPL resolvido, tendo acesso aos cálculos realizados,
é possível avaliar o efeito de alterações nos dados do problema sem que seja
necessário resolver o problema desde o início.
Outro aspecto extremamente interessante que decorre naturalmente do
estudo da dualidade está na interpretação econômica dos problemas primal e
dual e de suas soluções ótimas.
Para estudo da análise de sensibilidade e da interpretação econômica
sugerimos a leitura de (HILLIER; LIEBERMAN, 1995) e (BAZARAA;
JARVIS; SHERALI, 1997).
No próximo capítulo iniciaremos o estudo de processos estocásticos,
através das distribuições de probabilidades.

3.5 Exercícios propostos

1. Expresse os seguintes problemas de PL no formato padrão:

a ) maximizar x1
sujeito a: x1 + x2 ≤ 3
x1 + x2 ≥ 2
x1 , x2 ≥ 0.
b) minimizar x1
sujeito a: x1 + x2 = 2.
c) maximizar 2 x1 − x2
sujeito a: x1 + 0,005 x2 + x3 ≤ 3000
x2 − x3 ≥1
x2 ≥ 0, 0,1 ≤ x3 ≤ 8.

– 143 –
2. Quais dos seguintes problemas de otimização são problemas de PL? Jus-
tif ique.

a) minimizar 5 x3
sujeito a: x1 − x2 + x3 ≤ 1
x2 ≤ 0.

b) minimizar log( x1 + 1)
sujeito a: x1 + 2 x22 = 2
x1 , x2 ≥ 0.
c) minimizar − x1
sujeito a: x1 − x2 = 0
x1 , x2 ∈{0, 1} .

3. Desenhe conjuntos com zero, um, dois e uma inf inidade de pontos extremos.

4. Considere o PPL

minimizar z = x1 − x2
sujeito a: x1 + x2 ≤ 3
x1 ≤ 2
x2 ≤ 3
x1 , x2 ≥ 0.

Pede-se:
a) coloque o PPL no formato padrão;
b) verif ique que todos os pontos extremos são soluções básicas viáveis e vice-
versa; e
c) verif ique que o número de pontos extremos é menor do que ou igual ao
número de soluções básicas viáveis.

5. Encontre um poliedro não vazio tal que um conjunto viável de qualquer


PPL não possa assumir. Explique por quê.

– 144 –
6. Use o método gráf ico para construir exemplos para um PPL:
a) com uma única solução ótima;
b) com uma inf inidade de soluções ótimas;
c) ilimitado; e
d) inviável.

7. Considere o PPL

minimizar − x1
sujeito a: x1 − x2 = 2
x1 , x2 ≥ 0.

Pede-se:
a) resolva graf icamente este problema;
b) para o conjunto de índices base IB = {1} e a solução básica viável x̂ = [ 2 0 ] ,
T

use o teorema 3.6 para concluir que este PPL é um problema ilimitado;
c) encontre a direção de aresta u ∈ℜ2 a partir de x̂, tal que u seja uma dire-
ção de descida, isto é, cT u < 0 ;
d) implemente o algoritmo 3.2 para este problema de PL.

8. Considere o PPL

minimizar x1
sujeito a: x1 + x2 = 2
x1 , x2 ≥ 0.

Pede-se:
a) resolva graf icamente este problema.
b) para a solução básica viável x̂ = [ 2 0 ] , use o teorema 3.5 para concluir que
T

a nova variável x possui cT x ≤ cT xˆ ; responda: quem é x ?


c) implemente o algoritmo 3.2 para este problema de PL.

9. Implemente o método simplex tabular para o problema do exemplo 3.10.

10. Considere o problema do exemplo 3.10, agora, com um vetor do lado direi-
to b = [2 10]T . Resolva-o usando o algoritmo 3.2 e o método simplex tabular.

– 145 –
11. Consulte a página do Laboratório de Programação Linear (LabPL –
<http://www2.ucg.br/Institutos/LabPL/PaginaPrincipal.html>), para resol-
ver alguns problemas de PL em geral. Pratique algumas de suas resoluções
on-line e observe a existência de outros métodos de resolução.

12. Faça uma pesquisa na literatura em PL e compare o método simplex com


o método simplex revisado.

13. Implemente o método simplex dual para o problema 3.10.

– 146 –
IV
Distribuições de Probabilidade

E  ste capítulo aborda noções elementares de distribuições de probabilida-


de que, de alguma maneira, estão associados aos tópicos de processos
estocásticos em Pesquisa Operacional. Sugerimos as referências de Cancho
(2004), Lopes (1999), Meyer (1980) e Morettin (1999).
Distribuição de probabilidade consiste em atribuir uma probabilida-
de a cada valor da variável aleatória ou a cada intervalo de valores. Quando
tratamos com variáveis que podem assumir apenas valores discretos, a cada
possível valor da variável podemos associar no máximo um valor de probabi-
lidade. Temos, assim, a noção de função de um conjunto para outro conjunto,
de modo que o primeiro contém os valores possíveis da variável aleatória, e
o segundo, as probabilidades. Para variáveis que assumem valores contínuos
em , temos que as variáveis são def inidas em um dado intervalo de números
reais, e as probabilidades pertencem ao intervalo [0, 1]. No caso discreto, para
um certo valor xi do primeiro conjunto, associamos diretamente a probabi-
lidade de sua ocorrência, que é designada por P( xi ) . Para o caso contínuo,
não tem sentido o cálculo da probabilidade para um valor especif icado de x.
Trabalhamos então com a noção de função densidade de probabilidade, que
no caso unidimensional é uma função real, isto é, f : ℜ → ℜ+ , que permite
calcular as probabilidades associadas a uma variável aleatória contínua.
A exemplo dos modelos matemáticos determinísticos, nos quais as fun-
ções desempenham importante papel – por exemplo, a linear, a quadrática, a
exponencial, a trigonométrica etc. –, verif icamos também que, na obtenção de
modelos estocásticos para problemas do mundo real, algumas distribuições de
probabilidade surgem mais frequentemente que outras. Neste capítulo serão

– 147 –
estudadas as distribuições de probabilidade de variáveis discretas – a bino-
mial, a hipergeométrica, a uniforme e a distribuição de Poisson – e também as
distribuições de probabilidade de variáveis contínuas – a retangular ou uni-
forme contínua, a normal, a exponencial e a distribuição de Erlang.
Antes de iniciarmos o estudo das distribuições de probabilidade, fa-
remos uma breve revisão do conceito de probabilidade. Após essa revisão,
serão tratados os modelos empíricos e os modelos teóricos no estudo de pro-
babilidades.

4.1 Probabilidade

Um sonho humano sempre foi prever o futuro. No entanto, como esse


intento não pode ser plenamente satisfeito, a existência de uma “medida”
que permita verif icar as chances de ocorrerem determinados acontecimentos
ou eventos é um passo importante. À medida da incerteza associada a um
dado evento damos o nome de probabilidade. A primeira tarefa a ser em-
preendida trata-se de corretamente identif icar todos os eventos ou aconteci-
mentos que de fato sejam possíveis em relação à situação que examinamos.
Estamos particularmente interessados em experiências cujos resultados são
imprevisíveis e mutuamente exclusivos. Isto signif ica que, em cada repetição
dessa experiência é impossível prever, com absoluta certeza, o resultado que
será obtido. Além disso, a ocorrência de um resultado exclui a ocorrência de
qualquer um dos demais, o que quer dizer que apenas um dos eventos pode
acontecer a cada vez. Toda experiência com essas características é chamada
de experimento aleatório, e seus possíveis resultados são chamados de even-
tos. Por último, resta-nos verif icar quais são os eventos que possuem maiores
ou menores “chances” de ocorrer.
O conceito de probabilidade está diretamente associado ao conceito de
conjunto e, também, à idéia de contagem dos elementos desse conjunto e dos
elementos dos seus subconjuntos.
Para cada experimento aleatório e, def iniremos o espaço amostral S
como o conjunto de todos os resultados possíveis de e. Dado um experimento
aleatório, os métodos empíricos de cálculo de probabilidade caracterizam-se
pela contagem ou enumeração exaustiva dos elementos do espaço amostral
S com a f inalidade de se obter a frequência relativa de certo evento A, sendo
A um subconjunto de S, ou seja, A ⊆ S. O evento A relativo a um particular

– 148 –
espaço amostral S associado a um experimento  é simplesmente um conjunto
de resultados possíveis.

Def inição 4.1 (Probabilidade): Seja um experimento aleatório  cujo espaço


amostral é caracterizado pelo conjunto S. A cada evento A associa-se um nú-
mero real representado por P( A), denominado probabilidade de A, tal que
a) P( S) = 1 ;
b) Se A e B forem eventos mutuamente exclusivos, P( A ∪ B) = P( A) + P( B); e
c) Se A1 , A2 ,  , An forem, dois a dois, eventos mutuamente exclusivos, então
n n
P( ∪ i =1
Ai ) = ∑ P( A ).
i =1
i

Um caso particular dessa def inição se dá quando temos eventos equipro-


váveis, isto é, todos os elementos têm a mesma chance de ocorrer.

Def inição 4.2 (Probabilidade de eventos equiprováveis): Seja um experimen-


to aleatório  cujo espaço amostral é caracterizado pelo conjunto S, e seja A
um conjunto caracterizando um evento aleatório. A probabilidade de ocor-
rência do evento A é a razão da cardinalidade de A e a cardinalidade de S,
conforme estabelece a expressão

| A|
P( A) = , (4.1)
| S|

em que A e S são a quantidade de elementos do conjunto A e a quantidade


de elementos do conjunto S, respectivamente.
Apresentaremos a seguir um exemplo de aplicação da def inição 4.2.
 n
Neste ponto, estabelecemos a seguinte notação: o número Cnk =   é conhe-
cido como coef iciente binomial e é def inido pela relação (4.2):  
k

 n n!
 k = Cn = k!( n − k)! .
k
(4.2)

Exemplo 4.1: A cesta ilustrada na figura 4.1 contém seis bolas, sendo duas
pretas e quatro brancas.

– 149 –
Figura 4.1: Cesta com seis bolas

Realizaremos o experimento aleatório que consistirá em retirar simul-


taneamente duas bolas, anotar suas cores e em seguida devolvê-las à cesta.
Qual é a probabilidade de neste experimento retirar-se uma bola preta e outra
branca?
Suponhamos inicialmente que as bolas brancas sejam identif icadas por
números de 1 a 4, e as pretas, por números de 1 a 2. Com o auxílio desse artifí-
cio, descreveremos o espaço amostral S associado a esse experimento aleatório,
representando as bolas brancas por b1, b2, b3, b4 e, as pretas, por p1 e p2 :

S = {{ b1 , b2 }, { b1 , b3 }, { b1 , b4 }, { b2 , b3 }, { b2 , b4 }, { b3 , b4 }, { b1 , p1 }, { b1 , p2 },
{ b2 , p1 }, { b2 , p2 }, { b3 , p1 }, { b3 , p2 }, { b4 , p1 }, { b4 , p2 }, { p1 , p2 }}.

O número de elementos do espaço amostral, ou seja, | S | , é a combina-


ção simples de seis bolas tomadas duas a duas, isto é, C62 = 15 .
O evento “uma bola preta e outra branca” é um subconjunto de S repre-
sentado pelo conjunto A, mostrado a seguir:

A = {{ b1 , p1 }, { b1 , p2 }, { b2 , p1 }, { b2 , p2 }, { b3 , p1 }, { b3 , p2 }, { b4 , p1 }, { b4 , p2 }}.

Aplicamos a def inição 4.2 e obtemos a solução:

| A| 8
P( A) = = .
| S | 15

A fórmula geral para o cálculo da probabilidade de exatamente x even-


tos na amostra é

– 150 –
CNn−−xD CDx
,
CNn

em que N é o número de itens da coleção de objetos, D é o número desses


objetos que gozam de certa propriedade e n é o número de elementos da
amostra.
O problema solucionado anteriormente é um exemplo do modelo esto-
cástico hipergeométrico.
A principal conclusão que extraímos desse exemplo é que a probabi-
lidade depende diretamente do conjunto que def ine o espaço amostral e do
subconjunto que descreve o evento que caracteriza objetivamente o processo
em estudo.
A seguir, será resolvido um exemplo parecido com o exemplo 4.1, de
modo que as alterações do enunciado levarão a um problema completamente
diferente.

Exemplo 4.2: Considere a cesta ilustrada na figura 4.1. Realizaremos o ex-


perimento aleatório que consistirá em retirar uma bola anotar sua cor e
devolvê-la à cesta e, em seguida, pegar uma segunda bola e proceder do
mesmo modo. Qual é a probabilidade de, ao retirarmos duas bolas, apenas
uma seja branca?
O número de elementos do espaço amostral S é 6 2 = 36 . Se fôssemos
enumerar os elementos do espaço amostral, bastaria obter o produto cartesia-
no do conjunto { b1 , b2 , b3 , b4 , p1 , p2 } com ele próprio. Neste caso, percebemos
que a ordem de aparecimento do elemento, ou seja, qual cor ocorre em pri-
meiro lugar está em discussão, isto porque um elemento é retirado e depois é
retirado outro, diferentemente do que foi feito no exemplo 4.1.
O evento “apenas uma branca” é um subconjunto de S representado por
A, mostrado a seguir:

A = {( b1 , p1 ),( b1 , p2 ),( b2 , p1 ),( b2 , p2 ),( b3 , p1 ),( b3 , p2 ),( b4 , p1 ),( b4 , p2 ),


( p1 , b1 ),( p2 , b1 ),( p1 , b2 ),( p2 , b2 ),( p1 , b3 ),( p2 , b3 ),( p1 , b4 ),( p2 , b4 )}.

Note que cada elemento do conjunto é um par ordenado, enquanto que,


no exemplo anterior, cada elemento era um conjunto de dois elementos.

– 151 –
Aplicamos a def inição 4.2 e obtemos a solução:
| A | 16
P( A) = = ⇒ P( A) = 4 9 .
| S | 36
Uma forma alternativa para solucionar o exemplo é a seguinte: as proba-
bilidades de retirar-se uma bola branca e de retirar-se uma preta são, respecti-
vamente, 2 3 e 1 3 . Se desenvolvermos o binômio ( 23 + 13 )2 , obtemos:

2 2 0 1 1 0 2
 2 1   2  1   2  1   2  1  4 4 1
 +  =     + 2     +     = + + ..
3 3 3 3 3 3 3 3 9 9 9

A segunda parcela do desenvolvimento binomial corresponde à probabi-


lidade de se retirar uma bola branca e uma preta (vide os expoentes). O expoen­
te do binômio é o número de tentativas no experimento. A generalização desse
procedimento nos levaria a uma fórmula geral para o cálculo de probabilidade
com reposição. Este exemplo corresponde ao modelo estocástico binomial.
A probabilidade tal como estudada nesta seção não permite sua aplica-
ção em problemas complexos, uma vez que a contagem dos elementos do es-
paço amostral nem sempre é trivial, e a representação do fenômeno aleatório
sob a forma de conjuntos não é praticável em muitas situações.
Uma forma de se trabalhar com probabilidade que permite o uso do
computador é a sua interpretação como frequência relativa no contexto de um
experimento aleatório.

4.1.1 Probabilidade e frequência relativa

Considere-se um experimento aleatório e um evento a ele associado,


designado por A. São realizadas, inicialmente, k1 repetições do experimento;
depois k1 + k2 repetições; em seguida, k1 + k2 + k3, continuando dessa manei-
ra até realizarmos k1 + k2 + k3 +  + kr repetições do experimento. Seja n o
número de repetições do experimento, isto é, n = k1 + k2 + k3 +  + kr , e |A| o
número de vezes que o evento A ocorre. Então, a frequência relativa de A,
f ( A) , é:

A
f ( A) = . (4.3)
n

– 152 –
A frequência relativa f ( A) goza da seguinte propriedade: à medida que
o número de repetições do experimento aleatório for aumentado, a frequência
relativa baseada nesse número crescente de repetições tenderá a algum valor
numérico def inido. Essa propriedade é descrita formalmente no teorema 4.1,
que é atribuído a Bernoulli, 1713, e é conhecido como “primeira lei dos gran-
des números”.

Teorema 4.1: Quando o número de realizações de um experimento aleatório


cresce muito, a frequência relativa do sucesso associado vai se aproximando
cada vez mais de certo valor a que denominamos probabilidade.

Esse teorema nos fornece uma interpretação da probabilidade que é ade-


quada a cálculos com computador. Essa noção é explorada exaustivamente no
capítulo deste livro que trata de simulações.
Os fenômenos aleatórios podem ser descritos através de métodos empí-
ricos ou por meio de modelos teóricos de probabilidade. A utilização de uma
distribuição empírica de probabilidade, seja no processo de simulação, seja na
solução de problemas de tomada de decisão, limita as possíveis ocorrências futu-
ras às condições válidas no passado. Alguns acontecimentos podem não ter tido
oportunidade de ocorrência, o que impede sua reprodução no futuro. Ao usar-
mos uma distribuição teórica de probabilidade nas condições descritas, adicio-
namos informações ao comportamento da variável, o que torna o modelo mais
apto a gerar estimativas. Dessa forma, sempre que houver condições favoráveis,
devemos optar pelo uso do modelo teórico ajustado em vez do modelo empírico.
A seguir, trataremos os métodos empíricos, para depois abordarmos os
modelos teóricos.

4.2 Variável aleatória discreta

Com o objetivo de mostrar a relação entre a variável aleatória X e a


probabilidade P( X ), iniciaremos o estudo de distribuições de probabilidade
analisando alguns casos empíricos. A propósito, variável aleatória é uma fun-
ção que associa a todo evento pertencente a uma partição do espaço amostral
um único número real. Para ser discreta, essa variável deve assumir valores
em um conjunto enumerável.

– 153 –
Exemplo 4.3: Consideremos o lançamento simultâneo de duas moedas, cujo
espaço amostral é S = {(Ca, Ca), (Ca, Co), (Co, Ca),(Co, Co)} . A variável alea-
tória X representa o número de caras que aparecem. Na tabela 4.1, vemos a
associação existente entre o evento “cara”, a variável aleatória X e a probabi-
lidade P( X ).

Tabela 4.1: Relações entre evento, variável aleatória e probabilidade

Subconjunto Número de caras ( X ) P( X )


(Ca, Ca) 2 1
4
(Ca, Co), (Co, Ca) 1 1
4 + 1
4 = 1
2
(Co, Co) 0 1
4

Ao def inirmos a distribuição de probabilidade, estabelecemos uma cor-


respondência entre os valores da variável aleatória e os valores da probabili-
dade. A função f ( xi ) = P( X = xi ) determina a distribuição de probabilidade
da variável aleatória X.

A f igura 4.2 ilustra a distribuição de probabilidade da tabela 4.1.

Figura 4.2: Distribuição de probabilidade do evento “número de caras”

O exemplo 4.4, que será apresentado a seguir, mostra a estreita relação


existente entre distribuição de frequência e distribuição de probabilidade.

Exemplo 4.4: Após 30 dias de observações, o número de acidentes diários em


um grande estacionamento de veículos foi catalogado. A tabela 4.2 mostra os
dados obtidos.

– 154 –
Tabela 4.2: Distribuição de frequência de acidentes em um estacionamento

Número de acidentes Frequência ( fi )


0 22
1 5
2 2
3 1
∑ i
fi = 30

As probabilidades são obtidas dividindo-se as frequências pelo total de


observações. A tabela 4.3 mostra a distribuição de probabilidade para este
problema.

Tabela 4.3: Distribuição de probabilidade de acidentes em um estacionamento

Número de acidentes Probabilidade


0 0,73
1 0,17
2 0,07
3 0,03
∑ P( X ) = 1,00
Devemos ressaltar que a associação entre frequência relativa e probabi-
lidade só é possível se o número de observações for suf icientemente grande.

Exemplo 4.5: No lançamento de dois dados são observados os números de


pontos das faces que saem voltadas para cima. Def inimos uma variável alea-
tória X que é igual à soma dos pontos das faces de cima de ambos os dados. Os
resultados possíveis são catalogados e estão apresentados na tabela 4.4.

Tabela 4.4: Distribuição de probabilidade de X


X 2 3 4 5 6 7 8 9 10 11 12
P( X ) 1
36
2
36
3
36
4
36
5
36
6
36
5
36
4
36
3
36
2
36
1
36

A f igura 4.3 representa graf icamente X × P( X ) , sob a forma de histo-


grama.

– 155 –
Figura 4.3: Distribuição de probabilidade do evento “soma dos pontos das faces de
dois dados”

A seguir, são apresentadas duas def inições fundamentais no estudo de


processos estocásticos.

4.2.1 Esperança matemática e variância de uma variável aleatória discreta

Def inimos esperança matemática de uma variável aleatória discreta X


como a soma de todos os produtos possíveis dos valores da variável aleatória
pelas respectivas probabilidades. Através da expressão (4.4) def inimos a espe-
rança matemática E( X ):


E( X ) = ∑ x P( x ),
i =1
i i (4.4)

em que E( X ) é a média ponderada dos possíveis valores de X, cada um pon-


derado por sua probabilidade.
No contexto do estudo de probabilidades, esperança (ou valor esperado)
possui o mesmo signif icado de média. Por isso, é muitas vezes designado por
x, quando se trata de amostra, e por µ para uma população.
Def inimos variância de uma variável aleatória como a esperança mate-
mática do quadrado da diferença entre a variável aleatória e sua média, ou seja,

V ( X ) = E(( X − E( X ))2 ) . (4.5)

– 156 –
Usando-se algumas propriedades da esperança matemática, pode-se ex-
pressar a def inição de variância conforme se vê em (4.6).

V ( X ) = E( X 2 ) − [ E( X )]2, (4.6)

em que E( X 2 ) = ∑ xi2 P( xi ) e [ E( X )]2 é o quadrado da esperança matemática


E( X ) .
Ressaltamos que a variância é igual ao quadrado do desvio padrão; isto
é, V ( X ) = s 2 , em que s é o desvio padrão amostral.

4.3 Distribuições de probabilidade de variáveis aleatórias discretas

Nesta seção, serão estudadas as principais distribuições de probabilidade


de variáveis aleatórias discretas, que são: distribuição hipergeométrica, dis-
tribuição binomial, distribuição uniforme discreta e distribuição de Poisson.
Iniciaremos o estudo de distribuições de probabilidade de variáveis aleatórias
discretas com a distribuição hipergeométrica.

4.3.1 Distribuição hipergeométrica

A distribuição hipergeométrica é a distribuição de probabilidade dis-


creta mais elementar. Ela é aplicável aos casos de amostragens sem reposição.
Consideremos uma coleção de N itens, sendo que D desses itens tenham cer-
ta propriedade, e o restante, N − D, não tenha essa propriedade. Se a amostra
de n itens for retirada sem reposição, então a probabilidade de exatamente x
eventos na amostra é obtida pela relação (4.7):

CNn−−xD CDx
P ( X = x) = . (4.7)
CNn

O valor esperado de uma variável hipergeométrica é dado pela expres-


são (4.8):
D
E( X ) = n . (4.8)
N

– 157 –
A variância de uma variável hipergeométrica é dada pela expressão (4.9):

D  D   N − n
V (X) = n 1 −   . (4.9)
N  N   N −1 

Apresentamos a seguir um exemplo para ilustrar a aplicação da distri-


buição de probabilidade hipergeométrica.

Exemplo 4.6: Em um lote de doze peças do mesmo modelo, quatro são de-
feituosas. Ao se retirar aleatoriamente duas peças, qual é a probabilidade de
ambas serem defeituosas?

A primeira pergunta que surge é se o experimento é feito sem reposição


ou com reposição. Vamos resolver o problema considerando a primeira hipó-
tese, que é o caso da distribuição hipergeométrica. Primeiramente, analisemos
a retirada de duas peças por meio de um processo empírico.
Para utilizarmos o método empírico direto, estabelecemos as seguintes
def inições:

evento A ={ primeira peça defeituosa };


evento B = { segunda peça defeituosa }.

4
A probabilidade de retirarmos uma peça defeituosa é P( A) = .
12
Supondo que os eventos A e B sejam dependentes, ou seja, a peça re-
tirada no evento A afeta a probabilidade de retirada da segunda peça, a pro-
babilidade de retirarmos simultaneamente duas peças defeituosas é o produto
da probabilidade do evento A e a probabilidade do evento B tendo em vista
que A ocorreu. Assim,

4 3 1 .
P( A ∩ B) = P( A) × P( B A) = × =
12 11 11

Agora, resolveremos o mesmo problema (exemplo 4.6) aplicando a


def inição de distribuição hipergeométrica.
Supondo que não haja reposição no experimento, teremos a distribuição
hipergeométrica. O experimento aleatório em que são retiradas peças defei-

– 158 –
tuosas de um lote de peças é um exemplo típico de aplicação da distribuição
hipergeométrica.
Pela def inição dada no início de seção 4.3.1, a propriedade referida pode
ser “o defeito das peças”. Portanto, temos D = 4 peças com esta propriedade;
N = 12 peças no lote.
Desejamos calcular a probabilidade de se retirar duas peças com defei-
to, sem reposição, então: a amostra retirada tem n = 2 itens; como queremos
duas defeituosas implica que o número de eventos é x = 2 ; portanto, a pro-
babilidade é

C82− 2 C42 C80 C42 1 × 6 1


P( X = 2) = = = = .
C122 C122 66 11

Um método de verif icação dos resultados obtidos pressupõe a enumera-


ção dos elementos do espaço amostral. Denominamos método empírico enu-
merativo esse método, que será apresentado a seguir.
Suponhamos que as peças sejam representadas pelas letras a, b,
c, d, e, f, g, h, i, j, k, l. Imaginemos que as peças a, b, c, d sejam as qua-
tro defeituosas do lote. Formando subconjuntos de duas peças, teremos
12!
o espaço amostral S. O total de elementos de S é C122 = = 66 ele-
2!(12 − 2)!
mentos, uma vez que a ordem que as peças aparecem no grupo não é im-
portante. O evento “duas peças defeituosas” é representado pelo subconjunto
A = {{ a, b}, { a, c}, { a, d }, { b, c}, { b, d }, { c, d }} . Aplicamos a def inição 4.2 e obte-
6 1
mos P( A) = = . Esta é a probabilidade de retirar, sem reposição – retirar
66 11
uma peça, não repô-la no lote e depois retirar uma segunda peça – exatamente
duas peças defeituosas.

4.3.2 Distribuição binomial

Antes de introduzir a distribuição binomial, primeiramente vamos re-


lembrar o desenvolvimento do binômio ( p + q) elevado ao expoente inteiro
n. Segundo o teorema binomial, temos o somatório:
n
( p + q) n = ∑C
k=0
k
n p k q n− k .

– 159 –
Def inimos a variável aleatória X como o número de sucessos nas n
tentativas. Logo, X pode assumir os valores 0, 1, 2, 3, ..., n. Para X = x, temos
x sucessos e n − x fracassos, então a distribuição binomial é expressa pela
relação (4.10):
P( X = x) = Cnx p x q n− x , (4.10)

em que:

P( X = x) é a probabilidade de exatamente x eventos em n tentativas


independentes;
p é a probabilidade do evento em uma tentativa;
q é a probabilidade de que o evento não ocorra na mesma tentativa,
q + p = 1.

Ao aplicarmos as expressões (4.4) e (4.5), concluímos que o valor espera-


do da distribuição binomial é np, e sua variância é npq.
As condições para a aplicação da distribuição binomial são as seguintes:
os eventos devem ser independentes e complementares, a probabilidade de
sucesso de uma tentativa, p, e a probabilidade do insucesso, q, devem ser co-
nhecidas e devem manter-se constantes no decorrer do experimento – isto é,
deve haver reposição.
A distribuição binomial de probabilidade é adequada aos experimentos
que apresentam apenas dois resultados: sucesso ou fracasso. A exigência que
as probabilidades p e q sejam constantes é satisfeita tirando-se amostras e as
repondo no universo amostral.
Para ilustrar a distribuição binomial, consideremos o exemplo 4.7, que
é o mesmo exemplo 4.6 com a diferença de que a primeira peça é reposta no
lote antes de se retirar a segunda.

Exemplo 4.7: Em um lote de doze peças do mesmo modelo, quatro são defei-
tuosas. São retiradas aleatoriamente duas peças, uma após a outra, com repo-
sição. Qual é a probabilidade de ambas as peças serem defeituosas?

Consideremos que o sucesso consiste em retirar uma peça defeituosa do


lote de doze, em que existem quatro defeituosas. Então, a probabilidade do
4 1
sucesso é p = = para uma tentativa. Não retirar uma peça defeituosa cor-
12 3

– 160 –
1 2
responde à probabilidade complementar, q = 1 − p = 1 − = ou q = 8 12 .
3 3
Identif icamos os parâmetros n = 2 tentativas, x = 2 eventos. São duas
tentativas porque retiramos uma peça e depois a outra. Aplicamos a expres-
são (4.10) para o cálculo da probabilidade de ocorrer exatamente duas peças
defeituosas,

2 0
 1   2 1
P( X = 2) = C22     = .
 3  3 9

Eis mais um exemplo de aplicação do modelo binomial:

Exemplo 4.8: Considere um processo de fabricação em que a probabilidade de


ocorrência de um item defeituoso é de 0,2. Se tirarmos uma amostra de vinte
itens, qual é a probabilidade de ocorrerem menos de três itens defeituosos na
amostra?

A probabilidade de ocorrência de menos de três itens signif ica o seguin-


te: nenhum item defeituoso, um item ou dois itens defeituosos. Portanto, apli-
caremos a distribuição binomial conforme a seguir:

P( X < 3) = P( X = 0) + P( X = 1) + P( X = 2),
P( X < 3) = C200
(0, 2)0 (0,8)20 + C20
1
(0, 2)1 (0,8)19 + C202 (0, 2)2 (0,8)18 ,
P( X < 3) = 0, 206.
A soma de termos de probabilidades exibida anteriormente é denomina-
da probabilidade conjunta.

4.3.3 Distribuição uniforme discreta

Para um conjunto com n + 1 elementos, a distribuição uniforme de pro-


babilidade é dada pela relação (4.11):

1
P ( X = x) = . (4.11)
n+1

– 161 –
A relação (4.11) é válida para os seguintes valores de X:

X = x = a, a + 1, a + 2,  , a + ( n − 1), a + n.

A média e a variância são, respectivamente,

n
E( X ) = a + (4.12)
2
e
n( n + 2) .
V (X) = (4.13)
12
O exemplo 4.9 mostra como são feitos os cálculos de probabilidades com
a distribuição uniforme discreta.

Exemplo 4.9: Considere uma variável aleatória discreta que pode assumir os
valores 3, 4, 5, 6 e 7. Supondo-se que a distribuição de probabilidade dessa
variável seja uniforme, qual é a probabilidade de que a variável aleatória te-
nha o valor 4? Qual é a probabilidade de que a variável tenha valores menores
ou iguais a 6? Determine também a média e a variância.

Para este exemplo, com o auxílio da relação (4.11) determinamos o valor


de n:

x = a, a + 1, a + 2,  , a + ( n − 1), a + n,
x = 3, 3 + 1, 3 + 2, 3 + ( n − 1), 3 + n,
x = 3, 4, 5, 6, 7 ⇒ n = 4.

Dado que a distribuição é uniforme, a probabilidade de que uma variá­


vel aleatória tenha um valor particular dentre os valores possíveis para X é a
mesma para qualquer outro valor. Neste exemplo, a probabilidade de que a
variável tenha valor 4 é:

1 1 1
P( X = 4) = = = = 0, 20 .
n+1 4 +1 5

– 162 –
A probabilidade de que a variável aleatória X tenha valores menores ou
iguais a 6 é a probabilidade de termos os números 3, 4, 5 ou 6,

P( X ≤ 6) = 0, 20 + 0, 20 + 0, 20 + 0, 20 = 0,80 .

A média é

n 4
x = E( X ) = a + = 3+ = 5 .
2 2

A variância é

4(4 + 2)
V (X) = =2.
12

4.3.4 Distribuição de Poisson

Em muitos casos, conhecemos o número de sucessos; porém, torna-se


difícil e, às vezes, sem sentido determinar o número de fracassos ou o número
total de tentativas. Por exemplo, considere automóveis que passam num cru-
zamento. Podemos, em um dado intervalo de tempo, anotar quantos carros
com uma determinada característica passaram pelo cruzamento específ ico.
Porém, o número de carros que deixaram de passar pela esquina não poderá
ser determinado.
A distribuição de Poisson é usada nas situações probabilísticas em que a
área de oportunidade de ocorrência de um evento é grande, mas a oportuni-
dade de ocorrência em um intervalo particular – ou em um ponto particular
– é muito pequena. Os experimentos de Poisson fornecem valores numéricos
de uma variável aleatória X que representam o número de sucessos que ocor-
rem durante um dado intervalo de tempo ou em uma região especif icada. Se
for tempo, o intervalo de tempo pode ser de qualquer ordem de grandeza,
como um minuto, um dia, uma semana, um mês ou mesmo um ano. Se for
uma medida geométrica, a região especif icada pode ser um segmento de reta,
o volume de um sólido, um pedaço de material etc.
Assim, um experimento de Poisson pode gerar observações para a variá­
vel aleatória X que representa o número de chamadas telefônicas por hora

– 163 –
recebidas em um escritório, ou o número de horas que uma escola f ica sem
luz elétrica. Em outras palavras, a distribuição de Poisson descreve o número
de vezes que ocorre um evento que, embora certamente possa ocorrer muitas
vezes, é pouco provável que ocorra em um particular instante de observação.
Essa característica é típica de chegadas em uma f ila de espera.
A probabilidade de x ocorrências em um processo de Poisson com pa-
râmetro α é def inida pela relação (4.14):

αx
P ( X = x) = e −α , x ∈ Z+ . (4.14)
x!

O parâmetro  permite empregar o modelo de Poisson seja para tempo,


para distância, para área etc. Quando trabalhamos com tempo, o parâmetro 
é def inido como  =lDt, em que l é uma taxa na unidade de tempo.
Os histogramas mostrados na f igura 4.4 ilustram distribuições de probabi-
lidade de Poisson para quatro diferentes valores de . A abscissa é a variável x.

Figura 4.4: Histogramas da distribuição de Poisson para quatro valores do parâmetro 

– 164 –
Na distribuição de Poisson, a média e a variância são, respectivamente,

E( X ) =  (4.15)
e
V ( X) =  . (4.16)

Iremos, a seguir, interpretar f isicamente os parâmetros da distribuição


de Poisson através de exemplos.

Exemplo 4.10: Uma f ila de atendimento de um pronto-socorro recebe em


média quatro acidentados por hora. Qual é a probabilidade de chegar em uma
hora até dois acidentados?
acidentados
Obteremos primeiro a taxa l. A taxa de chegada é l = 4 ,
hora
sendo o tempo de observação D t = 1 hora. Vamos calcular as probabilidades
dos eventos x = 0, x = 1, x = 2 , ou seja, ninguém chega, chega um e chegam
dois acidentados no intervalo de uma hora:
(4´1)0 -4´1
nenhuma chegada, P( X = 0) = e = 0,018 ,
0!

uma chegada, P( X = 1) =
(4 × 1)1 e −4×1 = 0, 072,
1!

P( X = 2) =
( 4 × 1)
2

e −4×1 = 0,144.
duas chegadas,
2!
A probabilidade de ocorrerem chegadas de até dois acidentados em uma
hora é a probabilidade conjunta dos eventos analisados anteriormente:

P( X ≤ 2) = P( X = 0) + P( X = 1) + P( X = 2),
P( X ≤ 2) = 0, 018 + 0, 072 + 0,144,
P( X ≤ 2)) = 0, 234.

Exemplo 4.11: Em um processo de fabricação de componentes eletrônicos em


que o número médio de defeitos por componente é dois, qual é a probabilidade
de um componente ter exatamente seis defeitos?

– 165 –
Dos dados, temos que o número médio de defeitos por componente é
α = 2, e o número de eventos é x = 6. Portanto, a solução é imediata:
26 −2
P ( X = 6) = e = 0, 012 .
6!
Exemplo 4.12: Uma companhia de seguros estima que 0,005% de uma popu-
lação sofra a cada ano de certo tipo de acidente. Qual é a probabilidade de a
companhia ter de pagar a mais do que três pessoas, dentre as dez mil segura-
das contra este tipo de acidente, em um dado ano?

A probabilidade de uma pessoa acidentar-se é 0,00005. Isto signif ica que


a taxa anual de ocorrências desse tipo de acidentes é

0,00005 × 10.000
λ= = 0, 5 pessoas
ano .
1

O número médio de ocorrências é λ ∆t = 0, 5, e o número de eventos é


x = 3.

x= 3
0, 5 x ´ e-0,5
P( X > 3, Dt = 1) = 1- P( X £ 3, Dt = 1) = 1- å ,
x =0 x!
P( X > 3, Dt = 1) = 1- 0, 998 = 0,002.

Nas seções seguintes, serão analisadas as distribuições de probabilidade


de variáveis contínuas mais importantes do ponto de vista da Pesquisa Ope-
racional. Porém, antes de iniciar o estudo, serão estabelecidas def inições de
grande utilidade para a compreensão dessas distribuições.

4.4 Variável aleatória contínua

Certos experimentos aleatórios requerem que a variável aleatória, X,


assuma valores reais. Por exemplo, se estivermos estudando a altura de pes-
soas em um conjunto especif icado de uma comunidade, a variável X não é

– 166 –
mais restrita a valores discretos. As alturas podem ser 1,89 metros ou 2,01
metros etc. Outro exemplo é se precisarmos medir uma temperatura ou uma
tensão elétrica, que certamente não são representadas por números inteiros.
Isto nos leva à consideração das variáveis aleatórias contínuas, que podem ser
def inidas em todo o conjunto real, ou em intervalos especif icados do mesmo
conjunto.
Para tratarmos das distribuições contínuas, considere as seguintes
def inições:

Def inição 4.3 (Variável aleatória contínua): Dizemos que X é uma variá-


vel aleatória contínua se existir uma função f : ℜ → ℜ+, denominada função
densidade de probabilidade (fdp) de X, que satisfaça às seguintes condições:

(a) f ( x) ≥ 0 para todo x ∈ℜ ; e


(b) ∫
−∞
f ( x) dx = 1 .

Por essa def inição, observamos que para quaisquer números reais x1 e


x2 , tais que x1 < x2 ,

x2
P( x1 ≤ X ≤ x2 ) = ∫ x1
f ( x) dx .

Assim, temos uma maneira de calcular a probabilidade associada a uma variá­


vel aleatória contínua X, que corresponde à área delimitada pelo gráf ico da
função f, o eixo dos X e pelas retas X = x1 e X = x2 .

Def inição 4.4 (Função de probabilidade acumulada): Seja X uma variável


aleatória contínua. Dizemos que F é uma função de probabilidade acumula-
da, se

x0

F( x0 ) = P( X £ x0 ) = ò f ( x) dx .

– 167 –
Podemos estender as def inições que envolvem variáveis aleatórias dis-
cretas para variáveis aleatórias contínuas, como é o caso da esperança mate-
mática e da variância.

Def inição 4.5 (Esperança matemática e variância associadas às variáveis ale-


atórias contínuas): Seja X uma variável aleatória contínua com função densi-
dade de probabilidade f. O valor esperado de X é

E( X ) = ò xf ( x) dx , (4.17)

e a variância de X é

V ( X ) = ò x 2 f ( x) dx - [ E( X )]2 . (4.18)

Compare a expressão (4.18) com a expressão (4.6).

Exemplo 4.13 (inspirado em Meyer (1980): Verif ique se a função f tal que

 2 x, se 0 < x ≤ 1
f ( x) = 
 0, caso contrário ,

é uma fdp. Se f for uma função densidade de probabilidade de uma variável


aleatória X, então calcule P(0 ≤ X ≤ 1 2 ) e determine a esperança matemática
de X e a variância de X. Além disso, se possível, obtenha a função de proba-
bilidade acumulada F.

De acordo com a def inição 4.3, devemos mostrar que:

a) Pela def inição de f, f ( x) ≥ 0 para todo x ∈ℜ, porque para x ∈ (0,1]


(0, 1],
f ( x) = 2 x > 0 e para x ≤ 0 e x > 1 , f ( x) = 0 .

b) Uma vez que f ( x) ≥ 0 para x ∈ℜ ,

– 168 –
∞ 1

∫ f ( x) dx = ∫ 2 xdx = x 2 =1.
1
0
−∞ 0

Então, f é uma fdp. Agora, seja X uma variável aleatória contínua, tal
que f é uma fdp de X. Assim,
0,5
0,5
P(0 £ X £ 1 2 ) = ò 2 xdx = x 2 0 = 14 .
0

A esperança matemática é
¥ 1
1
E( X ) = ò xf ( x) dx = ò 2 x 2 dx = 23 x 3 0 = 23 .
-¥ 0

Temos que:
∞ 1
1

−∞
x 2 f ( x) dx = ∫ 2 x 3 dx = 42 x 4 0 = 12 .
0

Segue-se que a variância é:


¥

V ( X ) = ò x 2 f ( x) dx - [ E( X )]2 = 12 - ( 32 )2 = 181 .

Finalmente, usando a def inição 4.4:


x0 x0
x0
F( x0 ) = P( X ≤ x0 ) = ∫
−∞
f ( x) dx = ∫ 2 xdx = x 2 0 = x02 .
0

Logo, a função de probabilidade acumulada F é def inida por:

ïìï 0, se x£0
ï 2
F( x) = í x , se 0 < x £ 1
ïï
ïïî 1, se x > 1.

Representando graf icamente a função f e a função F do exemplo an-


terior, respectivamente, pelas f iguras 4.5 e 4.6, podemos observar que a área
sob o gráf ico de f e o eixo X é igual a 1, enquanto que a P(0 £ X £ 1 2 ) = 1 4 .
Além disso, a função F é derivável no intervalo (0, 1).

– 169 –
Figura 4.5: Gráf ico da f ( fdp de X)

Figura 4.6: Gráf ico da função de probabilidade acumulada F

4.5 Distribuições de probabilidade de variáveis aleatórias contínuas

Nesta seção, serão estudadas as principais distribuições de probabilidade


de variáveis aleatórias contínuas, que são: distribuição normal, distribuição
retangular ou uniforme, distribuição exponencial e distribuição de Erlang.
Iniciaremos o estudo de distribuições de probabilidade de variáveis aleatórias
contínuas com a distribuição normal.

– 170 –
4.5.1 Distribuição normal

Uma das distribuições mais importantes é a distribuição normal. Uma


das razões dessa importância é que a distribuição normal, comumente, re-
presenta com boa aproximação as distribuições de frequência observadas em
diversos fenômenos naturais. Outra razão é que a distribuição normal pode
ser relacionada com a maioria das distribuições de probabilidade existentes
por meio do teorema do limite central (vide seção 4.6). Além disso, para um
número grande de tentativas, as distribuições normais servem como aproxi-
mação de probabilidades binomiais.
A distribuição normal é também conhecida como distribuição de Gauss.
A distribuição de Gauss é contínua e simétrica em torno da média, e sua curva
estende-se de menos inf inito ( −∞ ) a mais inf inito ( ∞ ).
Matematicamente, uma variável aleatória contínua X tem distribuição
normal de probabilidades quando a sua função densidade de probabilidade
(fdp) é dada por (4.19):

( x−µ )2
1 −
x ∈ (−∞, ∞)  f ( x) = e 2σ 2 . (4.19)
σ 2π

Em (4.19), os símbolos possuem os seguintes signif icados:

: média da população;
: desvio padrão;
: número irracional cujo valor aproximado é 3,1415;
e: número irracional cujo valor aproximado é 2,71828.

O parâmetro  é a média da distribuição normal. Esse valor é a média


populacional. Ela e a variância populacional,  2, são valores supostamente
conhecidos. A notação N(,  2) simboliza uma distribuição normal de mé-
dia  e variância  2. É importante fazer neste ponto um paralelo entre  e
a média x , def inida anteriormente. Seja uma população de tamanho N, de
que vamos retirar todas as possíveis amostras simples de tamanho n, para
cada uma das quais vamos calcular a média x. A f igura 4.7 ilustra a relação
existente entre  e x.

– 171 –
Figura 4.7: Ilustração da relação entre  e x

As relações da média, do desvio padrão e da variância para uma amostra


e para uma população são apresentadas na tabela 4.5.

Tabela 4.5: Relações dos parâmetros com amostra e população

Parâmetro Amostra População f inita


Quantidade de elementos n N
Média x 
Desvio padrão s 
2
Variância s  2

O gráf ico de f ( G( f ) ), mostrado na f igura 4.8, é denominado curva


normal. Observe que X=  é o ponto de máximo de f e, como f é uma fdp,
f ( x) ≥ 0 para todo x ∈ℜ e a área sob a curva normal é igual a 1.

Figura 4.8: Gráf ico da fdp normal de X

– 172 –
A probabilidade de uma variável aleatória contínua normalmente dis-
tribuída ser menor do que ou igual a um número a é a área sob a curva normal
de −∞ a a. Matematicamente, essa probabilidade é dada pela relação (4.20):

a ( x−µ )2
1 −
P( X ≤ a) = ∫ σ 2π
e 2σ 2
dx , (4.20)
−∞

ilustrada na figura 4.9.

Figura 4.9: Área sob a curva normal em X, P( X ≤ a)

Do mesmo modo, a probabilidade de uma variável aleatória normal-


mente distribuída ser maior do que um valor dado a é,

P( X > a) = 1 − P( X ≤ a) .

É essencial reconhecer que uma distribuição normal é uma distribuição


teórica. Assim, por exemplo, os valores reais não variam entre −∞ e ∞. As
limitações do instrumento que se usa nas medições eliminam efetivamen-
te outros valores potenciais. Não obstante, tais def iciências são amplamente
contrabalançadas pela facilidade de utilização da distribuição normal na
obtenção de probabilidades e pelo fato de a referida distribuição ainda cons-
tituir uma boa aproximação de dados reais. Assim, quando dizemos que
uma variável aleatória é distribuída normalmente, essa af irmação deve ser
interpretada como uma implicação de que a distribuição de frequência de
seus resultados possíveis pode ser satisfatoriamente bem aproximada pela

– 173 –
distribuição normal de probabilidades. Logo, a curva normal é um modelo.
Em simulações computacionais, é comum o emprego da distribuição nor-
mal truncada.
Como a integração indicada na equação (4.20) não pode ser efetuada
diretamente pelos métodos triviais de Cálculo Diferencial e Integral, usamos
tabelas para determinar as áreas sob a curva normal. Uma forma de facilitar
a obtenção das probabilidades normais é utilizar a forma normal padroniza-
da e apresentar os valores em tabelas. Utilizamos a variável normal padroni-
zada dada pela relação (4.21):

x−µ
z= . (4.21)
σ

A tabela dá a área sob a curva – ou seja, a probabilidade de


um valor cair naquele intervalo – entre −∞ e valores escolhidos de
z, isto é, P( −∞ < Z ≤ z) . Temos, então, que se X é uma variável
aleatória com distribuição normal de média  e desvio padrão , podemos escre-
ver P( −∞ < X ≤ x) = P( −∞ < Z ≤ z) em que Z é uma variável aleatória,
x−µ
tal que z = . A partir dessa transformação, a distribuição resultante
σ
tem média igual a zero e desvio padrão igual a um. Assim, a distribuição normal
padronizada é denotada por N(0, 1). Veja as f iguras 4.10(a) e 4.10(b).

(a) (b)

Figura 4.10: (a) Área sob a curva normal em X , P( −∞ < X ≤ x) ; (b) área sob a curva
x−µ
normal padronizada – com escala – em Z, P( −∞ < Z ≤ z = σ )

As tabelas 4.6 e 4.7, a seguir, apresentam valores das áreas sob a curva
normal padronizada.

– 174 –
Tabela 4.6: Áreas sob a curva normal padronizada de −∞ a z , z ≤ 0

x−µ
σ 0,09 0,08 0,07 0,06 0,05 0,04 0,03 0,02 0,01 0,00
−3,5 0,00017 0,00017 0,00018 0,00019 0,00019 0,00020 0,00021 0,00022 0,00022 0,00023
−3,4 0,00024 0,00025 0,00026 0,00027 0,00028 0,00029 0,00030 0,00031 0,00033 0,00034
−3,3 0,00035 0,00036 0,00038 0,00039 0,00040 0,00042 0,00043 0,00045 0,00047 0,00048
−3,2 0,00050 0,00052 0,00054 0,00056 0,00058 0,00060 0,00062 0,00064 0,00066 0,00069
−3,1 0,00071 0,00074 0,00076 0,00079 0,00082 0,00085 0,00087 0,00090 0,00094 0,00097

−3,0 0,00100 0,00104 0,00107 0,00111 0,00114 0,00118 0,00122 0,00126 0,00131 0,00135
−2,9 0,0014 0,0014 0,0015 0,0015 0,0016 0,0016 0,0017 0,0017 0,0018 0,0019
−2,8 0,0019 0,0020 0,0021 0,0021 0,0022 0,0023 0,0023 0,0024 0,0025 0,0026
−2,7 0,0026 0,0027 0,0028 0,0029 0,0030 0,0031 0,0032 0,0033 0,0034 0,0035
−2,6 0,0036 0,0037 0,0038 0,0039 0,0040 0,0041 0,0043 0,0044 0,0045 0,0047

−2,5 0,0048 0,0049 0,0051 0,0052 0,0054 0,0055 0,0057 0,0059 0,0060 0,0062
−2,4 0,0064 0,0066 0,0068 0,0069 0,0071 0,0073 0,0075 0,0078 0,0080 0,0082
−2,3 0,0084 0,0087 0,0089 0,0091 0,0094 0,0096 0,0099 0,0102 0,0104 0,0107
−2,2 0,0110 0,0110 0,0113 0,0116 0,0119 0,0122 0,0125 0,0129 0,0136 0,0139
−2,1 0,0143 0,0146 0,0150 0,0154 0,0158 0,0162 0,0166 0,0170 0,0174 0,0179

−2,0 0,0183 0,0188 0,0192 0,0197 0,0202 0,0207 0,0212 0,0217 0,0222 0,0228
−1,9 0,0233 0,0239 0,0244 0,0250 0,0256 0,0262 0,0268 0,0274 0,0281 0,0287
−1,8 0,0294 0,0301 0,0307 0,0314 0,0322 0,0329 0,0336 0,0344 0,0351 0,0359
−1,7 0,0367 0,0375 0,0384 0,0392 0,0401 0,0409 0,0418 0,0427 0,0436 0,0446
−1,6 0,0455 0,0465 0,0475 0,0485 0,0495 0,0505 0,0516 0,0526 0,0537 0,0548

−1,5 0,0559 0,0571 0,0582 0,0594 0,0606 0,0618 0,0630 0,0643 0,0655 0,0668
−1,4 0,0681 0,0694 0,0708 0,0721 0,0735 0,0749 0,0764 0,0778 0,0793 0,0808
−1,3 0,0823 0,0838 0,0853 0,0869 0,0885 0,0901 0,0918 0,0934 0,0951 0,0968
−1,2 0,0985 0,1003 0,1020 0,1038 0,1057 0,1075 0,1093 0,1112 0,1131 0,1151
−1,1 0,1170 0,1190 0,1210 0,1230 0,1251 0,1271 0,1292 0,1314 0,1335 0,1357

−1,0 0,1379 0,1401 0,1423 0,1446 0,1469 0,1492 0,1515 0,1539 0,1562 0,1587
−0,9 0,1611 0,1635 0,1660 0,1685 0,1711 0,1736 0,1762 0,1788 0,1814 0,1841
−0,8 0,1867 0,1894 0,1922 0,1949 0,1977 0,2005 0,2033 0,2061 0,2090 0,2119
−0,7 0,2148 0,2177 0,2207 0,2236 0,2266 0,2297 0,2327 0,2358 0,2389 0,2420
−0,6 0,2451 0,2483 0,2514 0,2546 0,2578 0,2611 0,2643 0,2676 0,2709 0,2743

−0,5 0,2776 0,2810 0,2843 0,2877 0,2912 0,2946 0,2981 0,3015 0,3050 0,3085
−0,4 0,3121 0,3156 0,3192 0,3228 0,3264 0,3300 0,3336 0,3372 0,3409 0,3446
−0,3 0,3483 0,3520 0,3557 0,3594 0,3632 0,3669 0,3707 0,3745 0,3783 0,3821
−0,2 0,3859 0,3897 0,3936 0,3974 0,4013 0,4052 0,4090 0,4129 0,4168 0,4207
−0,1 0,4247 0,4286 0,4325 0,4364 0,4404 0,4443 0,4483 0,4522 0,4562 0,4602
−0,0 0,4641 0,4681 0,4721 0,4761 0,4801 0,4840 0,4880 0,4920 0,4960 0,5000

– 175 –
Tabela 4.7: Áreas sob a curva normal padronizada de −∞ a z , z ≤ 3, 5
x−µ
σ 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
+0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
+0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
+0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
+0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
+0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
+0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224

+0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
+0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
+0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8079 0,8106 0,8133
+0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
+1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621

+1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
+1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
+1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
+1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
+1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441

+1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
+1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
+1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
+1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
+2,0 0,9773 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817

+2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
+2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
+2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
+2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
+2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952

+2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
+2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
+2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
+2,9 0,9981 0,9982 0,9983 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
+3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99899 0,99893 0,99896 0,99900

+3,1 0,99903 0,99906 0,99910 0,99913 0,99915 0,99918 0,99921 0,99924 0,99926 0,99929
+3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950
+3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965
+3,4 0,99966 0,99967 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976
+3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983

– 176 –
O exemplo 4.14 mostra como calcular a probabilidade com distribuição
normal, utilizando-se a variável z e as tabelas.

Exemplo 4.14: Em um laboratório, repetidas medições executadas em uma


peça utilizando-se certo instrumento eletrônico resultam em uma sequência
de valores. Os erros de medição comportam-se de forma aleatória, segundo
a distribuição de Gauss. A média da distribuição é 20, e o desvio padrão é 8.
Qual é a probabilidade de medir valores menores que 14?

Temos: µ = 20; σ = 8; a = 14 , que é o maior valor da variável aleatória x.


Aplicamos a fórmula (4.21) para variável normal padronizada:

14 − 20
z14 = = 0, 75.
8

Chamamos z14 o valor – 0,75, por tratar-se de um valor específico da


variável z. Desejamos obter a probabilidade P( X ≤ 14) . Na verdade, com a
transformação, vamos buscar na tabela a área sob a curva normal modif icada
de – ∞ a z14.
Consultamos a tabela 4.6. Localizamos na primeira coluna o valor −0,7
e, no cruzamento dessa linha com a coluna de 0,05, encontramos o número
0,2266. Portanto, a probabilidade procurada é P( X ≤ 14) = 0, 2266. O valor
0,2266 pode ser interpretado como a proporção dos valores menores do que 14.

Exemplo 4.15: Os pesos de 600 estudantes são normalmente distribuídos com


média 65,3 kg e variância 30,25 kg 2 . Determine o número de estudantes que
pesam: (a) entre 60 kg e 70 kg ; e (b) mais de 63,2 kg.

Vamos considerar primeiro o cálculo da probabilidade para estudan-


tes que pesam entre 60 e 70 kg. Suporemos também que µ= x e s = s . A
variân­cia é o quadrado do desvio padrão:

σ = V ( X ) ⇒ σ = 30, 25 = 5, 5 kg .

Vamos calcular a probabilidade de a variável aleatória estar entre 60 kg


e 70 kg, que é:

– 177 –
P(60 ≤ X ≤ 70) .

Raciocinando em termos da área da curva normal, vamos calcular a área


de −∞ a 70 e subtrair desse valor a área que vai de −∞ a 60,

P(60 ≤ X ≤ 70) = P( X ≤ 70) − P( X ≤ 60) .

Temos de calcular as variáveis normais padronizadas z70 e z60 . Para


isso, temos de empregar a relação (4.21), a saber:

70 − 65, 3
z70 =70 − 65, 3 = 0,85,
z70 = 5, 5 = 0,85,
e 60 −565, 3
5,
z60 =60 − 65, 3 = − 0, 96.
z60 = 5, 5 = − 0, 96.
5, 5

Consultamos as tabelas 4.6 e 4.7, entrando com os valores de z, e acha-


mos os seguintes números:

z70 → P ( X ≤ 70) = 0,8023,


z60 z → → P ( XP (≤X60) = 0,1685,
≤ 70) = 0,8023,
70
e P(60z ≤ X ≤ = − 0,1685,= 0,6338.
→ P ( X ≤ 60) = 0,1685
70) 0,8023
60

P(60 ≤ X ≤ 70) = 0,8023 − 0,1685 = 0,6338.

O número esperado de estudantes com pesos compreendidos entre 60 kg


e 70 kg é o produto 0,6338 × 600 ≅ 380 estudantes.
A probabilidade de termos estudantes com mais que 63,2 kg é obtida
do seguinte modo. Vamos calcular a probabilidade de a variável aleatória ser
menor do que ou igual a 63,2 kg:

P( X ≤ 63, 2) .

Como a área total sob a curva normal é igual a um, vamos subtrair dessa
área o resultado obtido, P( X ≤ 63, 2), já que queremos calcular a probabilida-
de P( X > 63, 2):

– 178 –
P( X > 63, 2) = 1 − P( X ≤ 63, 2),
e 63, 2 − 65, 3
Pz(=X > 63, 2) = 1=− − P0,
( X38.
≤ 63, 2),
5, 5
63, 2 − 65, 3
z= 63, 2 − 65= ,−30, 38.
z63, 2 = 5, 5 = −0, 38.
5, 5

Consultamos a tabela 4.6 e obtemos:

P( X ≤ 63, 2) = 0, 3520 .

Concluímos que a probabilidade de, neste universo, encontrarmos estu-


dantes com mais de 63,2 kg é

P( X > 63, 2) = 1 − P( X ≤ 63, 2) = 1 − 0, 352 = 0,648 .

Desse modo, esperamos que 0,648 × 600 ≅ 389 estudantes tenham peso
superior a 63,2 kg.

4.5.2 Distribuição retangular ou uniforme

A distribuição retangular ou uniforme é aplicável em situações nas quais


as probabilidades de todos os sucessos são iguais.
Uma variável aleatória contínua X tem distribuição contínua retangu-
lar ou uniforme de probabilidades quando a sua função densidade de proba-
bilidade (fdp) é dada por (4.22):

0, x< a
 1
x ∈( −∞, ∞)  f ( x) =  , a ≤ x ≤ b. (4.22)
b− a
 0, x>b

Notemos que a área do retângulo ilustrado na f igura 4.11 é igual a um,


como deve ser para qualquer função densidade de probabilidade.

– 179 –
Figura 4.11: Gráf ico da fdp retangular ou uniforme de X

A probabilidade de que uma variável aleatória X tenha um valor me-


nor do que ou igual a um número x1 que pertença ao intervalo [ a, b] é:

x1 x1
dx x1 − a
P( X ≤ x1 ) = ∫
a
f ( x) dx = ∫ b− a = b− a ,
a

em que P( X ≤ x1 ) é a probabilidade acumulada da variável aleatória X de a até x1.


A média e a variância das variáveis aleatórias da distribuição uniforme são
obtidas pelas expressões (4.23) e (4.24), de acordo com a def inição (4.5):

a+ b
E( X ) = µ = (4.23)
2
e
( b − a)2
V (X) = σ 2 = . (4.24)
12

A notação U(0, 1) é usada para simbolizar uma distribuição uniforme


com a = 0 e b = 1.

4.5.3 Distribuição exponencial

Considere β > 0 . Uma variável aleatória contínua X tem distribuição


exponencial de probabilidades se a sua função densidade de probabilidade
(fdp) for dada por (4.25):

– 180 –
{
−b x x≥0
x ∈ (−∞, ∞)  f ( x) = 0b,e ,x< 0 . (4.25)

Essa forma de distribuição de probabilidade é conhecida mais espe-


cif icamente como distribuição exponencial negativa e, nessa forma, é fre-
quentemente usada para descrever tempos de serviço em modelos de f ila de
espera. Nesse tipo de aplicação, a variável aleatória X representa o tempo.
Em aplicações na teoria de f ilas, o parâmetro β da relação (4.25) é o
número de ocorrências na unidade de tempo. Por exemplo, β pode ser a taxa
de atendimento de usuários por unidade de tempo.
O gráf ico de f em (4.25) é mostrado na f igura 4.12. Observe que
f (0) = β > 0 e



∫ βe
−βx
dx = − e − β x 0
=1.
0

Figura 4.12: Gráf ico da fdp exponencial de X

A média e a variância das variáveis aleatórias da distribuição exponen-


cial são obtidas pelas relações (4.26) e (4.27):

1 (4.26)
E( X ) = µ = ,
β

– 181 –
1
V (X) = σ 2 = . (4.27)
β2

A probabilidade acumulada exponencial desde zero até um instante em


que tenha transcorrido um tempo ∆t, isto é, a função de distribuição acumu-
lada, é dada por (4.28):

P( X ≤ ∆t) = 1 − e − β ∆t . (4.28)

A função de distribuição acumulada é obtida integrando-se a função f,


de (4.25), em x, de 0 a ∆t. O valor acumulado mede a probabilidade de o
intervalo entre duas ocorrências consecutivas ser menor do que ou igual ao
intervalo de tempo ∆t.

Exemplo 4.16: Numa linha de montagem de televisores, localizada na Zona


Franca de Manaus, obtivemos a informação de que o tempo de serviço médio
por aparelho é de duas horas. Qual é a probabilidade de ocorrer um tempo de
serviço de menos de 1h 40min?
1
A média é igual a =2 horas o que implica em β = 0, 5. O inter-
aparelho
β 40 5
valo requerido de execução do serviço é1h40 min = 1 + = horas. A proba-
1h 40min
60 3
bilidade de termos intervalos de execução do serviço inferiores a 1h 40min horas é:

5
5 −0,5 ×
P( X ≤ ) = 1 − e 3 = 1 − e −0,83334
3
5
P( X ≤ ) = 0, 5654.
3

4.5.4 Distribuição de Erlang

Esta distribuição de probabilidade leva o nome do seu criador, o ma-


temático e engenheiro dinamarquês Erlang Agner Krarup (1878-1929). As
contribuições das pesquisas desse pioneiro se estendem à teoria das filas e à

– 182 –
área de tráfego de informações em telecomunicações. Uma variável aleatória
contínua X tem distribuição de Erlang de probabilidades se a sua função den-
sidade de probabilidade (fdp) for dada por (4.29):

−x
 x m−1 e a
 , x≥0
 ( m − 1)! a
m
(4.29)
x ∈ ( −∞, ∞)  f ( x) =  ,
 0, x<0



em que:
a: parâmetro de escala ou coef iciente de variação, a > 0 ;
m: parâmetro de fôrma ( m é um número inteiro positivo).

Após uma comparação entre as distribuições exponencial negativa e de


Erlang, é imediata a constatação de que em (4.29), para m = 1 e 1 a = β , tere-
mos a fdp exponencial def inida em (4.25).
A média e a variância das variáveis aleatórias da distribuição de Erlang
são obtidas pelas relações (4.30) e (4.31):

E( X ) = µ = am (4.30)
e
V ( X ) = σ 2 = a2 m . (4.31)

A função de probabilidade acumulada da fdp de Erlang, calculada des-


de zero até um valor especif icado x, é dada por (4.32):

 m−1 ( x a ) i 
 ∑ i =0 i!  .
−x
P ( X ≤ x) = 1 − e a
(4.32)
 

A distribuição de Erlang é usada como uma extensão para a distribuição


exponencial se o coef iciente de variação for menor do que 1 (isto é, a < 1 ), por
exemplo, nas seguintes aplicações:

– 183 –
a) na modelagem de tempos de atendimento – ou de serviço – de sistemas de f ilas;
b) na modelagem do tempo de reparo e tempo entre falhas de equipamentos
e sistemas.

Na primeira aplicação mencionada, um servidor com tempos de serviço


cuja distribuição seja Erlang (a, m) pode ser representado como se fosse uma
série de m servidores com tempos de serviço de distribuição exponencial.
Especif icamente em sistemas de telecomunicações, a distribuição de
Erlang é empregada na modelagem do tráfego de chamadas telefônicas.
Para m não muito grande, a utilização do computador para o cálculo
do fatorial nas expressões (4.29) e (4.32) requer certos cuidados por parte do
programador, em face das limitações de representação da aritmética inteira
das máquinas atualmente disponíveis. Todavia, existem métodos para se con-
tornarem essas dif iculdades, tal como apresentado em Qiao (1998).
Em simulações com o uso do computador, a distribuição de Erlang é ge-
rada a partir de variáveis uniformemente distribuídas, seguindo-se os passos
apresentados no algoritmo 4.1 (JAIN, 1991). Denotamos ln como o logaritmo
natural. Aqui, U(0, 1) é um número aleatório uniforme do intervalo [0, 1].

Algoritmo 4.1: Obtenção de variáveis de Erlang a partir da distribuição con-


tínua uniforme U(0, 1)
Dados: os parâmetros m e a.
Faça P ← 1
Para i = 1,  , m
ui ← U (0, 1)
P ← P × ui
Erlang( a, m) ← − a × ln( P )

Na seção seguinte será estudado um teorema de capital importância


para simulações em computador, que encontra muitas aplicações em Pesquisa
Operacional.

4.6 Teorema do limite central

Este teorema af irma que, sob determinadas condições, as somas e as mé-


dias das amostras de medidas aleatórias extraídas de uma população tendem

– 184 –
a apresentar uma distribuição aproximadamente bem comportada, desde que
a amostragem seja repetida. O signif icado dessa af irmação pode ser melhor
ilustrado com um exemplo.

Exemplo 4.17: Considere a população referente à experiência de se jogar um


dado não viciado um número grande de vezes. A distribuição de probabilida-
de é dada pelo histograma da f igura 4.13.

Figura 4.13: Distribuição de y, que é o número obtido ao se jogar um dado

Extraímos uma amostra de n = 5 medidas – jogamos o dado cinco vezes –,


obtendo assim a amostra desejada. Por exemplo, suponhamos que os números
anotados nessa primeira amostra sejam y=3, 5, 1, 3 e 2. Calculemos a soma dessas
cinco medidas e também a média da amostra, y . A título de experiência, vamos
repetir a amostragem cem vezes. Os resultados para cem amostras estão par-
cialmente indicados na tabela 4.8, juntamente com os valores corresponden-
5
tes de ∑y
i =1
i e y.

Tabela 4.8: Exemplos de medidas contidas na amostra, a soma e a média

Número da Medidas contidas


amostra na amostra ∑y i y
1 3, 5, 1, 3 ,2 14 2,8
2 3, 1, 1, 4, 6 15 3,0
... ... ... ...
100 2, 4, 3, 4, 6 19 3,8

– 185 –
5
Construiremos um histograma de frequências de y – ou de ∑ y – para
i =1
i

essas cem amostras e teremos uma representação gráf ica da distribuição em-


pírica. Observaremos um resultado interessante: embora os valores de y, na
população – y = 1, 2, 3, 4, 5, 6 –, sejam equiprováveis – vide figura 4.13 – e,
por conseguinte, possuam uma distribuição uniforme, as médias das amostras
– ou somas – apresentam uma distribuição não uniforme.
Em termos formais, um enunciado do teorema do limite central é como
apresentado a seguir.

Teorema 4.2: Se amostras aleatórias com n observações forem extraídas de


uma população com média µ e desvio padrão σ , então, quando n for gran-
de, a média amostral será normalmente distribuída com média µ e desvio
σ
padrão .
n
A aproximação aludida no teorema 4.2 será tanto mais perfeita quanto
maior for o valor de n.
Para ilustrar esse teorema, foi elaborado no ambiente Matlab um có-
digo para simular o lançamento do dado por cinco vezes consecutivas. Esse
experimento foi repetido mil vezes. O histograma de frequências resultante
é conforme ilustrado na f igura 4.14, em que o eixo das abscissas representa a
variável aleatória y , e o eixo das ordenadas, a frequência absoluta.

Figura 4.14: Histograma de frequências de y que se apresenta com o aspecto de uma


normal

– 186 –
O código escrito com instruções do Matlab é mostrado na f igura 4.15.

n = input('Entrar com o tamanho da amostra: ');


m = input('Entrar com a quantidade de simulações: ');
for k = 1:m,
soma = 0;
for i = 1:n,
y(i) = f 
ix(1 + 6*rand); % rand é U(0,1)
soma = soma + y(i);
end;
media(k) = soma/n;
end;
maior = norm(media, inf); menor = norm(media, -inf);
h = (maior - menor)/m;
x = menor: h: maior;
hist(media, x)

Figura 4.15: Código em Matlab para verif icação do teorema do limite central

Chamamos a atenção do leitor para a forma do histograma da f igura


4.14, que lembra a forma de sinusoidal, típica da distribuição normal.
Ressaltamos que o teorema do limite central não especif ica a distribui-
ção da população. Na realidade, a distribuição da população pode se apresen-
tar sob uma vasta gama de distribuições de probabilidade, e é isso que torna
esse teorema notável e de grande aplicabilidade.
Formalmente, o teorema 4.2 pode ser enunciado como a seguir: sejam y1,
y2, ... yn, n variáveis aleatórias independentes e sejam, respectivamente,  = E(Y)
n
e  2 =V(Y) o valor esperado e a variância. Ao se obter X = x j = ∑ yi , o valor
i =1
esperado e a variância de X são, respectivamente, E(X) = n e V(X)=n 2 ; para n
x − nµ
grande, tem-se que Z = tem aproximadamente a distribuição normal
σ n
padronizada.
No restante deste livro, serão utilizadas distribuições de probabilidades
com bastante frequência. O estudo de modelos probabilísticos – processos es-
tocásticos – será iniciado no próximo capítulo, com processo de Markov.

– 187 –
4.7 Exercícios propostos

1. Resolva os problemas a seguir, supondo distribuição binomial:


a) Uma moeda é lançada 5 vezes seguidas e independentes. Calcule a proba-
bilidade de serem obtidas 3 caras nessas 5 provas.
b) Dois times de futebol, A e B, jogam entre si 6 vezes. Encontre a probabili-
dade de o time A ganhar 4 jogos. (Lembre-se que a probabilidade de um
time ganhar uma partida é 1 3 ).
c) Considere um processo de fabricação em que a probabilidade de ocorrência
de um item defeituoso é de 0,05. Se tirarmos uma amostra de 10 itens, cal-
cule a probabilidade de menos de três itens defeituosos na amostra.

2. Resolva o problema abaixo, supondo distribuição hipergeométrica:


Uma empresa possui 8 diretores, dos quais 5 são homens e 3 são mulheres.
Uma comissão de 3 diretores deve ser constituída através de sorteio para repre-
sentar a empresa em um congresso que acontecerá em Cancun. Qual é a pro-
babilidade de ser sorteada uma comissão que tenha exatamente 2 mulheres?

3. Suponha um jogo de 25 números inteiros, de 1 a 25, no qual são escolhi-


dos 15 números. Apenas o acerto dos 15 números dá um excelente prêmio
ao felizardo. No sorteio, os números são retirados de um mesmo globo, sem
reposição. Um esperançoso apostador está intrigado porque ele normalmente
acerta 10 ou 11 pontos e nunca fez os 15. Como podemos explicar isto para o
apostador, usando o modelo hipergeométrico? Será que acertar poucos pontos
é difícil também? Faça cálculos e, se for necessário, um gráf ico também.

4. Resolva o problema abaixo, supondo distribuição de Poisson:


Num semáforo de uma avenida, por meio de observações feitas num dia típi-
co, o especialista constatou que, durante 6 horas, dos 10.000 automóveis que
ali trafegaram 0,3% não respeitou o sinal vermelho. Qual é a probabilidade
de que, em ½ hora, pelo menos dois motoristas sejam multados por ultrapas-
sarem o sinal vermelho?

5. Resolva o exemplo 4.8 usando o modelo de Poisson com parâmetro α igual a 4.

6. Prove a expressão (4.15) do valor esperado para o modelo de Poisson dado


pela expressão (4.14).

– 188 –
7. Resolva os problemas abaixo, supondo distribuição normal:
a) Um teste de escolaridade tem distribuição normal com média igual a 100
e desvio padrão igual a 10. Determine a probabilidade de um indivíduo
submetido ao teste ter nota: (1) maior que 120; (2) entre 85 e 115.
b) Uma lâmpada eletrônica tem duração média de 850 dias e desvio padrão
de 40 dias. Sabendo que a duração é normalmente distribuída, calcule a
probabilidade de uma lâmpada desse tipo durar: (1) entre 780 e 901 dias;
(2) menos de 780 dias.

8. Entrando no sistema de auto-atendimento de um banco, os clientes com


seus automóveis acessam o caixa-rápido. Os tempos de utilização são expo-
nencialmente distribuídos com uma média de 45 segundos. Qual é a pro-
babilidade de ocorrer um tempo de acesso ao caixa-rápido de menos de 30
segundos?

9. Resolva o problema proposto, supondo distribuição uniforme discreta.


Uma tabela de 100 números (00 a 99) dispostos aleatoriamente. Fecha-se o
olho e, ao acaso, aponta-se para um dos números da tabela. Qual é a probabili-
dade de apontar-se o número 24? Qual é a probabilidade de acertar o número
correspondente à sua idade nessa tabela? Supondo-se que ninguém na sala
tenha menos de 20 e mais de 45 anos, qual é a probabilidade de se apontar
números na faixa de idade do pessoal da sala? Qual é a média dos números
dessa tabela? Qual é a variância? Qual é o desvio padrão?

10. Na mesma linha do algoritmo 4.1, apresentado na seção 4.5.4, escreva os


passos de um algoritmo para gerar a distribuição exponencial a partir de va-
riáveis uniformemente distribuídas. Para isto, suponha que a probabilidade
acumulada F(x)= 1 – e– x = U(0, 1) e, para se ter variáveis aleatórias exponen-
cialmente distribuídas, explicite x na expressão de F(x).

– 189 –
V
Processos de Markov

E  ste capítulo aborda processos de Markov de primeira ordem, nas catego-


rias discreto e contínuo. Como fonte complementar, sugerimos a leitura
de Billinton (1970), Bronson (1985), Hillier & Lieberman (1995), Shamblin &
Stevens Jr. (1989) e Trivedi (2002).
Neste capítulo trataremos de uma sequência de estados que segue um
processo de Markov, tal que a probabilidade da próxima ocorrência dependa
apenas da ocorrência imediatamente anterior. Isto é, trataremos de cadeias de
Markov de primeira ordem.
Processos de Markov constituem um tipo especial de processo estocástico
que possui a propriedade de as probabilidades associadas com o processo em um
dado instante do futuro dependerem somente do estado presente, sendo, portan-
to, independentes dos eventos no passado. Desse modo, os processos markovia-
nos são caracterizados pelo que se designa como “falta de memória”.
Para caracterizar processos de Markov de maneira precisa, é necessário
estabelecer uma def inição formal.

5.1 Def inição e caracterização de processos de Markov

Antes de apresentar a def inição de processos de Markov, é necessário


expor um conceito mais abrangente, que é o de processo estocástico.
Def ine-se processo estocástico como uma coleção indexada de variáveis
aleatórias { Xt } , em que o índice t pertence a um dado conjunto T. Se o con-
junto T for composto de números inteiros não negativos, dizemos que o pro-

– 191 –
cesso é discreto. Se T é um intervalo real, dizemos que o processo é de tempo
contínuo. Em geral, Xt representa uma característica mensurável de interesse
em um instante de tempo t. Formalmente, a notação indicada pela expressão
(5.1) def ine processo estocástico sobre um dado espaço de probabilidade:
{ Xt ; t Î T } . (5.1)

Os valores assumidos pela variável aleatória Xt são chamados estados, e


o conjunto de todos os possíveis valores forma o espaço de estado do processo.
Como exemplo de um processo estocástico, podemos citar o tráfego de
dados em uma rede local de computadores que se encontra interligada à
internet. Nesse sistema, enviam-se e recebem-se mensagens eletrônicas en-
quanto se fazem downloads de arquivos. A taxa de transferência de bits por
unidade de tempo em um dado servidor dessa rede é uma variá­vel incerta
que depende da intensidade de uso do sistema pelos usuários conectados na-
quele momento. Podemos, nesse sistema, caracterizar a variável aleatória
Xt como a velocidade de transferência de dados em bits segundo , em que t é o
instante de tempo pertencente ao intervalo T = [0, ¥) , ou seja, o processo
{ Xt } é um processo estocástico contínuo. O espaço de probabilidade nesse
exemplo corresponde à função densidade de probabilidade que rege o com-
portamento da variável aleatória Xt , por exemplo, uma distribuição normal.

Def inição 5.1 (Processo de Markov): Um processo estocástico { Xt ; t Î T } é


chamado um processo de Markov se, para qualquer tempo t0 < t1 <  < tn < t,
a distribuição condicional de Xt para os valores dados de Xt0 , Xt1 , , Xtndepen-
dem somente de Xtn:

– se Xt assumir valores discretos, essa def inição é expressa como

P( Xt = x | Xtn = xn , Xtn-1 = xn-1 , , Xt0 = x0 ) = P( Xt = x | Xtn = xn ) , (5.2)

– se Xt assumir valores contínuos, essa def inição é expressa como


P( Xt £ x | Xtn = xn , Xtn-1 = xn-1 , , Xt0 = x0 ) = P( Xt £ x | Xtn = xn ). (5.3)

Nessas expressões, t0 , t1 , , tn-1 representam o passado, e t e tn são o


futuro e o presente respectivamente.
É interessante estabelecer claramente como é lida, por exemplo, a ex-
pressão (5.2), que é como segue: a probabilidade de a variável X ter valor

– 192 –
igual a certo valor x no tempo t, dado que a variável aleatória tenha assumi-
do os valores xn , xn-1 , , x0 , respectivamente, nos tempos tn , tn-1 , , t0 ,
é igual à probabilidade de a variável X ter valor igual a um certo valor x no
tempo t, dado apenas que a variável tenha assumido o valor xn no tempo tn .
A def inição 5.1 pode ser traduzida para a linguagem natural como se-
gue: um processo estocástico é um processo de Markov se o estado futuro do
processo, conhecido o estado presente, é independente do passado.
É fundamental no estudo de processos de Markov a noção de estado.
Propriedades em comum entre indivíduos ou objetos caracterizam o que se
designa por estado. A seguir, apresentam-se exemplos de objetos ou coisas que
possuem propriedades em comum:
– máquinas em uma linha de produção, cujos estados podem ser máquina
funcionando, máquina parada e em reparo, máquina parada aguardando
por reparo;
– uma população que migra de uma região para outra, podendo encontrar-se
em um dos seguintes estados: população ociosa, população empregada;
– safras de soja na região Centro-Oeste do Brasil, considerando-se as possibi-
lidades de estado: safra boa, safra ruim ou safra razoável.

Os processos de Markov sempre envolvem a variável tempo, considera-


da na forma discreta – em que a variação se dá em saltos, ou seja, em interva-
los regulares –, ou na forma contínua, podendo assumir valores reais.
Nos exemplos citados anteriormente, podemos notar que o tempo está
presente. Uma máquina, ao estragar, requer tempo para ser consertada e
pode, portanto, exibir alteração em seu estado, se observada a intervalos re-
gulares de tempo. Povos que migram de um lugar a outro fazem isto com
certa periodicidade. Safras ocorrem em meses determinados que diferem em
função da região e da cultura considerada.

5.2 Relevância dos processos de Markov e possíveis aplicações

Em todas as áreas da atividade humana, busca-se quantif icar eventos


que possuem certo grau de incerteza de ocorrência. Isso implica de certa for-
ma a necessidade de “prever o futuro”. Modelos matemáticos probabilísticos
são concebidos para auxiliar o homem nas tomadas de decisão.

– 193 –
No mundo real há diversos sistemas dinâmicos que podem ser modela-
dos como processos de Markov. Eis alguns exemplos de aplicações:
– planejamento de sistemas de atendimento a f ilas de espera, que são nor-
malmente modelados como processos de “nascimento e morte”;
– dimensionamento de recursos computacionais para servir a processos que
compartilham tempo e espaço;
– avaliação de equipamentos em operação em uma linha de produção indus-
trial ou em instalações complexas;
– estudo de fenômenos econômicos e movimentos sociais;
– análise de processos biológicos, como a evolução de certas espécies vivas,
seja para f ins de exploração comercial ou para a preservação;
– análise da evolução de certa epidemia em uma comunidade.

Na bibliograf ia de Pesquisa Operacional encontram-se aplicações de


processos de Markov que compreendem desde o estudo de sistemas móveis
de comunicação, passando pelo tráfego de sinais digitais e o desenvolvimento
de técnicas que objetivam disponibilizar o serviço a usuários, bem como a
análise da evolução de corporações e sistemas sociais com o passar do tempo.
Em todas as aplicações, nota-se um traço comum: o tempo.
Conforme estabelece a def inição 5.1, há duas categorias de processos de
Markov: (1) os processos de tempo discreto, em que o índice t assume apenas
valores inteiros não negativos, ou seja, t = 0, 1, 2, ...; e (2) os processos nos quais
a variável tempo é contínua, ou seja, t Î [0, ¥) . Em ambas as categorias, os
estados são caracterizados por números inteiros não negativos, def inidos com
base nos valores que a variável aleatória X pode assumir.

5.3 Processos de Markov de tempo discreto

Um processo de Markov está completamente especif icado se forem co-


nhecidas as probabilidades de transição e a distribuição inicial de probabili-
dades dos estados.
Toda vez que um estado suceder a outro, dizemos que o processo esto-
cástico markoviano deu um passo. O passo pode representar um período de
tempo que resulte em outro estado possível. Se o número de passos é zero, tal
situação representa o presente; se igual a um, estará representando um possí-
vel estado no próximo passo, e assim por diante.

– 194 –
Pode-se iniciar o estudo de processos de Markov de tempo discreto
def inindo probabilidades de transição.

Def inição 5.2 (Probabilidades de transição): As probabilidades condicionais

P( Xt+1 = j | Xt = i) , para t = 0, 1, 2, ...,

são chamadas de probabilidades de transição. Se, para cada i e j,

P( Xt+1 = j | Xt = i) = P( X1 = j | X0 = i) , para todo t = 0, 1, 2, ...,

então as probabilidades de transição para um passo são ditas estacionárias, ten-


do em vista que independem do tempo. Usualmente são denotadas por pij .

A probabilidade de transição do estado i ao estado j, em um passo, simbo-


lizada por pij , é a probabilidade de um objeto que se encontra no estado i, após
um intervalo de tempo f ixo predeterminado, ser encontrado no estado j.
Para n passos à frente, como extensão da def inição 5.2, é possível escre-
ver as probabilidades de transição para cada i e j, com n = 0, 1, 2, ..., conforme
a expressão:

P( Xt+ n = j | Xt = i) = P( Xn = j | X0 = i) , para todo t = 0, 1, 2, ... . (5.4)

Para simplif icar a notação, usaremos a seguinte simbologia:

P( X1 = j | X0 = i) = pij
e

P( Xn = j | X0 = i) = pij ( n) .

A notação pij ( n) , introduzida anteriormente, implica que, para n=0,


pij (0) é P( X0 = j | X0 = i), sendo igual a 1 se i = j e igual a 0 em caso con-
trário.
As probabilidades de estados são def inidas como a seguir.

Def inição 5.3 (Probabilidade de estado no instante n): A probabilidade do


estado i tomada no instante n é a probabilidade de um objeto ocupar o estado

– 195 –
i após um número n f inito de passos. Formalmente, para M + 1 estados,

pi ( n) = P( Xn = i) , para i = 0, 1, 2, ..., M.

Especif icamente para o instante inicial, tem-se a distribuição inicial de


probabilidades de estados, a qual é representada por um vetor linha p(0) ,
cujas componentes são as probabilidades pi ( n), i = 0, 1, 2, ..., M,

p(0) = [ p0 (0) p1 (0) p2 (0)  pM (0)] . (5.5)

Conhecidas as def inições estabelecidas até aqui, estamos prontos para a


apresentação de um exemplo numérico.

Exemplo 5.1: Em uma certa região, durante o período de chuvas, que dura
cerca de seis meses a cada ano, os estados observados são dois: dias ensolarados
e dias chuvosos, os quais serão designados pelos índices 0 e 1, respectivamente.
Com base em observações históricas, foram obtidas para um passo, ou seja,
um dia, as probabilidades de transição supostas constantes. A um dia chuvoso
sucederá um dia chuvoso com probabilidade igual a 3 4 ou um dia ensolarado,
com probabilidade 1 4 . A dias ensolarados tanto pode suceder dias ensolarados
ou chuvosos, com probabilidades iguais de 1 2 . Desejamos estudar o regime de
chuvas dessa região, modelando o processo estocástico descrito como um pro-
cesso de Markov. Como primeira informação desse estudo, precisamos inferir
sobre o número esperado de dias chuvosos na estação das chuvas, se a tendên-
cia descrita pelas probabilidades permanecer inalterada.

Primeiramente vamos identif icar os dados fornecidos no enunciado


com as probabilidades def inidas anteriormente. Sendo 0 o número associado
ao estado “sol” e 1 o número associado ao estado “chuva”, temos as probabili-
dades condicionais seguintes para um passo:

– dia chuvoso sucede a dia chuvoso → P( X1 = 1| X0 = 1) = p11 = 3 4 ;


– dia ensolarado sucede a dia chuvoso → P( X1 = 0 | X0 = 1) = p10 = 1 4 ;
– dia chuvoso sucede a dia ensolarado → P( X1 = 1| X0 = 0) = p01 = 1 2 ;
– dia ensolarado sucede a dia ensolarado → P( X1 = 0 | X0 = 0) = p00 = 1 2.

– 196 –
Para encontrar a probabilidade do estado 0 em um passo, p0 (1) , pode-
mos utilizar o conceito de probabilidade total (MORGADO et al., 2004), o
qual para dois estados possui a seguinte expressão:

p0 (1) = P( X1 = 0) = P( X1 = 0 | X0 = 0) P( X0 = 0) + P( X1 = 0 | X0 = 1) P( X0 = 1) ,

p0 (1) = p00 p0 (0) + p10 p1 (0).

Na última expressão observamos p0 (0) e p1 (0) , que são as probabilida-


des iniciais dos estados (vide a def inição 5.3).

Procedendo de modo análogo, para encontrar a probabilidade do estado


1 em um passo, p1 (1) , utilizamos novamente o conceito de probabilidade total:

p1 (1) = P( X1 = 1) = P( X1 = 1 | X0 = 1) P( X0 = 1) + P( X1 = 1 | X0 = 0) P( X0 = 0) ,

p1 (1) = p11 p1 (0) + p01 p0 (0) .

Se for de interesse determinar as probabilidades dos estados 0 e 1 em


dois passos, respectivamente, p0 (2) e p1 (2) , tendo em vista que as probabi-
lidades de transição são constantes, basta escrever as expressões conforme se
mostra a seguir:
p0 (2) = p00 p0 (1) + p10 p1 (1)
e
p1 (2) = p11 p1 (1) + p01 p0 (1) .

Se prosseguirmos com essa forma de calcular, o cálculo se revelará enfa-


donho, e haverá grande possibilidade de confusão com tantos índices.
Uma forma alternativa e muito mais funcional consiste no emprego da
representação matricial. Das expressões de cálculo de p0 (1) e p1 (1), obtém-se
a representação matricial mostrada a seguir:

é p00 p01 ù
[ p0 (1) p1 (1)] = [ p0 (0) p1 (0)] ê ú.
êë p10 p11 úû

– 197 –
Analogamente, das expressões de cálculo de p0 (2) e p1 (2) , extraímos a
representação matricial mostrada a seguir:

é p00 p01 ù
[ p0 (2) p1 (2)] = [ p0 (1) p1 (1)] ê ú.
êë p10 p11 úû

Ora, se substituirmos o vetor [ p0 (1) p1 (1)] da última expressão pelo


mesmo vetor da expressão precedente, obteremos o seguinte:

é p00 p01 ù é p00 p01 ù


[ p0 (2) p1 (2)] = [ p0 (0) p1 (0)] ê úê ú
êë p10 p11 úû êë p10 p11 úû
e

2
é p00 p01 ù
[ p0 (2) p1 (2)] = [ p0 (0) p1 (0)] ê ú .
êë p10 p11 úû

Finalmente, ao empregarmos o princípio da indução matemática (MOR-


GADO et al., 2004; SCHEINERMAN, 2003), é imediata a conclusão de que
uma expressão para n passos pode ser escrita conforme se indica a seguir:

n
é p00 p01 ù
[ p0 ( n) p1 ( n)] = [ p0 (0) p1 (0)] ê ú .
êë p10 p11 úû

Essa expressão resolveria o exemplo em pauta se conhecêssemos a dis-


tribuição inicial, isto é, o vetor [ p0 (0) p1 (0)] . No entanto, veremos à frente,
neste capítulo, que, sob certas condições, as probabilidades dos estados a longo
prazo são independentes da distribuição inicial, sendo esta outra propriedade
inerente à maioria dos processos de Markov.
Retornemos então ao exemplo 5.1. Para resolvê-lo, lançamos mão de
um artifício conhecido por árvore de probabilidades. A f igura 5.1 ilustra o
diagrama em árvore, partindo do estado 0, em que são considerados apenas
quatro passos. Outro diagrama poderia ser construído; porém, partiria do
estado 1.

– 198 –
Figura 5.1: Diagrama em árvore de probabilidades iniciando no estado 0

O modo como se calcula a probabilidade do estado 1 após quatro passos,


isto é, p1 (4) será mostrado. Note-se na árvore de probabilidades (figura 5.1)
que, dado que os eventos são independentes, é necessário multiplicar todas as
probabilidades dos “caminhos” que levam ao estado 1 para calcular a proba-
bilidade do estado 1 em quatro passos.

– 199 –
A tabela 5.1 mostra em detalhes os cálculos para a obtenção de p1 (4).

Tabela 5.1: Planilha de cálculo da probabilidade do estado 1

Produtos de probabilidades de transição Probabilidades parciais


p00 p00 p00 p01 = 1 1 1 1
2 2 2 2
1
16

p00 p00 p01 p11 = 1 1 1 3


2 2 2 4
3
32

p00 p01 p10 p01 = 1 1 1 1


2 2 4 2
1
32

p00 p01 p11 p11 = 1 1 3 3


2 2 4 4
9
64

p01 p10 p00 p01 = 1 1 1 1


2 4 2 2
1
32

p01 p10 p01 p11 = 1 1 1 3


2 4 2 4
3
64

p01 p11 p10 p01 = 1 3 1 1


2 4 4 2
3
64

p01 p11 p11 p11 = 1 3 3 3


2 4 4 4
27
128

Probabilidade total (probabilidade do estado 1 85


128 » 0,664
em quatro passos)

Se construirmos uma tabela para mostrar os cálculos da probabi-


lidade do estado 0 para quatro passos, chegaremos sem dúvida no valor
p0 (4) = 43 128 » 0, 336 . Se estendermos os cálculos para mais passos, não é difí-
cil concluir que a probabilidade do estado 1 encaminhará para 2 3 , enquanto
que a probabilidade do estado 0 será de 1 3 , preservadas as condições.
Com esses cálculos, podemos responder à questão formulada no enun-
ciado do exemplo 5.1. Portanto, espera-se que, em seis meses, 120 dias serão
chuvosos ( 180´ 23 = 120 ), e 60 dias serão ensolarados.

5.3.1 Matriz de transição

Uma notação conveniente para representar probabilidades de transição


para n passos é a forma de matriz. Denominaremos matriz de transição ou,
analogamente, matriz de probabilidades de transição.

Def inição 5.4 (Matriz de probabilidades de transição para n passos): Seja


S = {0, 1, , M } o conjunto f inito de estados e seja o par de estados (i, j),
tal que ( i, j ) Î S´ S. Associe a cada par ( i, j ) um número real pij ( n), de modo
que sejam satisfeitas as condições 0 £ pij ( n) £ 1 para todo ( i, j ) Î S´ S e

– 200 –
å p ( n) = 1 para todo i ∈ S. Com esse procedimento, def ine-se a matriz
j ÎS
ij

de transição para n passos como,

é p00 ( n) p01 ( n)  p0 M ( n) ù
ê ú
ê p10 ( n) p11 ( n)  p1M ( n) ú
P = êê
n ú. (5.6)
ê     úú
ê p ( n) pM1 ( n)  pMM ( n)úû
ë M0

Especif icamente, para um passo, a matriz de probabilidades de transi-


ção é como representada em (5.7), em que é omitido o índice n, por ser 1,

é p00 p01  p0 M ù
ê ú
ê p10 p11  p1M ú
P = êê ú. (5.7)
ê     úú
êp pM1  pMM úû
ë M0

Em particular, para n = 0, tem-se como consequência natural que P 0


é a própria matriz identidade, I, de ordem ( M + 1)´( M + 1) , o que está de
acordo com o fato de que pij (0) é igual a P( X0 = j | X0 = i) e

1, se i = j
pij (0) =  .
0, se i ≠ j

Com base no teorema da probabilidade total e na def inição de probabi-


lidade de transição para n passos, pij ( n) = P( Xn = j | Xn-1 = i), tem-se a ex-
pressão (5.8) para o cálculo da probabilidade do estado j em n passos

p j ( n) = P( Xn = j ) = å pi (0) pij ( n) . (5.8)


i

– 201 –
Com base na expressão (5.8) podemos concluir que a matriz P n é rela-
cionada à distribuição inicial de probabilidades, p(0) , def inida pela expressão
(5.5), e ao vetor de probabilidades de estados no instante n (para n passos),
através da expressão (5.9):

p( n) = p(0) P n . (5.9)

Essa expressão pode ser deduzida pela aplicação do princípio da indução


matemática, a exemplo do que foi feito durante a solução do exemplo 5.1 para
o caso particular de um processo de dois estados.
Em relação à expressão (5.9), se o espaço de estados S do processo de
Markov { Xn } for f inito, então o cálculo de P n é relativamente fácil. Para pro-
cessos de Markov com espaços de estados contáveis, porém inf initos, o cálculo
de P n não é trivial. Contudo, existem métodos para se determinar o comporta-
mento assintótico, isto é, quando n ® ¥ , de p( n) e P n .

5.3.2 Cadeias de Markov

Uma forma visual conveniente para representar um processo de Markov


é por meio de um grafo que se compõe de nós, que são os estados, e arcos dire-
cionados que simbolizam as transições entre os estados. Esse grafo é denomi-
nado diagrama de transição.

Def inição 5.5 (Cadeia de Markov): A sequência ( Xn ), n = 0, 1, 2, , é cha-


mada de cadeia de Markov homogênea de tempo discreto, com espaço de esta-
dos S = {0, 1, 2, , M}, e matriz de probabilidades de transição, P = [ pij ] , se,
para todo n = 0, 1, 2, , a condição
P( Xn = j | Xn-1 = i) = P( X1 = j | X0 = i) = pij

é satisfeita para todo ( i, j ) Î S´ S.

Observe o exemplo apresentado a seguir.

Exemplo 5.2: Considere o problema enunciado no exemplo 5.1. Desejamos


utilizar a representação sob a forma de diagrama de transição de uma cadeia
de Markov para expressar o problema daquele enunciado.

– 202 –
Identif icamos dois estados, portanto, M = 1, e o espaço de estados é
S= {0, 1}. O produto cartesiano, S´ S , é {(0,0), (0,1), (1,0), (1,1)}. A matriz de
probabilidades de transição para um passo é a seguinte:

é p00 p01 ù é 1 2 1

P=ê ú=ê ú.
êë p10 p11 úû êë 1 4 3 ú

O grafo que corresponde à cadeia de Markov para esse exemplo é ilus-


trado na f igura 5.2.

Figura 5.2: Diagrama de transição de uma cadeia de Markov com dois estados

A análise de cadeias de Markov utilizando-se matriz de probabilidades


de transição pode ser efetuada tomando-se certas precauções, tendo em vista
que nem todos os processos de Markov de tempo discreto comportam-se de
modo semelhante à medida que o número de passos aumenta.
Surge então a necessidade de uma classif icação das cadeias de Markov.

5.3.3 Classif icação das cadeias de Markov

Os estados de um processo de Markov são divididos em transitório e


recorrente. Essa classif icação está relacionada à probabilidade de o processo
retornar a um dado estado i, do qual tenha partido.
Seja fii a probabilidade de um processo retornar ao estado i, dado que
tenha partido desse estado; então, segue a def inição de estado recorrente.

Def inição 5.6 (Estado recorrente): Um estado i é recorrente se, partindo-se


do estado i, eventualmente retorna-se ao estado i, com probabilidade fii = 1.

– 203 –
O processo cuja cadeia de Markov foi apresentada no exemplo 5.2 pos-
sui ambos os estados recorrentes, porque, se considerarmos o estado i = 0 ,
conforme a figura 5.2, no próximo passo podemos percorrer o arco com pro-
babilidade p00 , obtendo f00 = 1 ; e, para i = 1 , ainda na figura 5.2, podemos
percorrer o arco com probabilidade p10 , e depois o de probabilidade p01 , re-
tornando para o mesmo estado i = 1 , obtendo f11 = 1 .
Estados transitórios, também conhecidos como não recorrentes, são
aqueles que, partindo do estado i, há uma probabilidade positiva de o proces-
so não retornar a esse estado (isto é, fii < 1 ). Estados recorrentes e transitó-
rios podem coexistir em uma mesma cadeia de Markov. A caracterização de
estados transitórios não é trivial e, por essa razão, os detalhes de processos de
Markov desse tipo não serão enfatizados neste livro.
Um tipo especial de estado recorrente é o estado absorvente, cuja def ini-
ção é estabelecida a seguir.

Def inição 5.7 (Estado absorvente): Um estado i é dito absorvente se a pro-


babilidade pii é igual a 1.

É importante ressaltar que só é possível “escapar” de um estado absor-


vente se o processo for reiniciado; ou seja, se o processo partir novamente de
qualquer outro estado que não seja absorvente. A apresentação de um exem-
plo torna mais claras essas def inições.

Exemplo 5.3: Considere um navio com dois sistemas propulsores, que são duas
turbinas idênticas. Seja Xn a variável aleatória tal que seu valor é o número de
turbinas em operação normal no passo n. Se uma das turbinas falhar, o navio
continua em operação, enquanto ela poderá ser consertada. Porém, se ambas fa-
lharem, o navio para, mas ainda haverá a possibilidade de que uma das turbinas
seja consertada, sendo esta a reignição do processo de Markov e não a transição
para outro estado. As probabilidades são as seguintes: se uma turbina que nunca
passou por reparo é boa no tempo tn-1, ela tem conf iabilidade de 90% no tempo
tn; porém, uma turbina que se estragou no tempo tn-1, após reparada, é apenas
60% conf iável no tempo tn. Suponha as probabilidades independentes e modele
o problema como um processo de Markov de tempo discreto.

Os valores possíveis para a variável Xn são: 0, 1 e 2, sendo, respectiva-


mente, duas turbinas estragadas, apenas uma operando e ambas operando.

– 204 –
O  modelo de probabilidades sugerido é o binomial, já que os eventos são
independentes; ou seja, a falha de uma turbina não implica a falha da outra, e
cada turbina só pode ser encontrada em uma dentre duas condições.

As probabilidades de transição são calculadas como a seguir:

– ambas em operação,

P( Xn = 2 | Xn-1 = 2) = p22 ,
p22 = 0, 9´0, 9 = 0,81 ;

– uma turbina boa e a outra estragada, dado que ambas estavam em operação,

P( Xn = 1 | Xn-1 = 2) = p21 ,
p21 = 0, 9´0,1 + 0,1´0, 9 = 0,18 ;

– ambas estragadas, dado que as duas estavam boas,

P( Xn = 0 | Xn-1 = 2) = p20 ,
p20 = 1- p22 - p21 = 0,01 ;

– uma em operação e a outra entra em operação após o reparo,

P( Xn = 2 | Xn-1 = 1) = p12 ,
p12 = 0, 9´0,6 = 0, 54 ;

– nenhuma em operação, dado que apenas uma estava boa,

P( Xn = 0 | Xn-1 = 1) = p10 ,
p10 = 0,1´0, 4 = 0,04 ;

– uma em operação, dado que uma delas estava estragada,

P( Xn = 1 | Xn-1 = 1) = p11 ,
p11 = 1- p12 - p10 = 0, 42 .

– 205 –
O estado i é absorvente uma vez que entrando nele não se pode aban-
doná-lo, exceto se o processo partir novamente, portanto, p00 = 1 .

A matriz de probabilidades de transição para um passo f ica conforme


se mostra:

0 1 2
0é 1 0 0 ù
ê ú.
P = 1 ê0,04 0, 42 0, 54ú
ê ú
2 êë 0,01 0,18 0,81úû

O grafo associado à matriz P é ilustrado na f igura 5.3.

0,04

Figura 5.3: Diagrama de transição de uma cadeia de Markov para o exemplo 5.3

As análises de sistemas cujos modelos são representados por processos


de Markov de tempo discreto para elevado número de passos trazem infor-
mações importantes. No entanto, nem todos os processos comportam-se de
maneira idêntica para n ® ¥ e, por isso, não permitem que certas conclusões
sejam extraídas.
Daí advém a necessidade de se estabelecer objetivamente sob quais con-
dições as probabilidades limites existem e se possuem ou não algum signif ica-
do físico.

– 206 –
Def inição 5.8 (Probabilidade limite ou probabilidade estacionária): Para
o estado j de uma cadeia de Markov, o elemento v j , para j = 0, 1, , M , é
def inido como a probabilidade limite v j = lim p j ( n) . Dizemos, também, que
n→∞
vj é a probabilidade do estado j em regime estacionário. Em consequência, o
vetor v = [ v0 v1  vM ] é o vetor de regime estacionário.

Nos desenvolvimentos que se seguem, será mostrado que, para determi-


nadas cadeias, nem sempre é possível obter o vetor de probabilidades limites.
Uma propriedade requerida para a existência de vj, tal como def inida ante-
riormente, é que a cadeia seja aperiódica.

Def inição 5.9 (Periodicidade de estados): Partindo do estado i, se retornar-


mos a esse estado em um número par ou ímpar de passos maior do que 1, di-
zemos que o estado i é periódico, com período igual ao menor número inteiro
de passos que for necessário para alcançarmos novamente o estado i. A uma
cadeia com estados periódicos designamos cadeia periódica. Por raciocínio
análogo, será aperiódica a cadeia em que todos os estados forem aperiódicos.

Uma forma de verif icar a periodicidade de estados é visualizar o proces-


so como uma árvore de probabilidades. Por exemplo, a cadeia cuja matriz é

00 11
P =00é0éê0 11ù ùú ,
P = 1ê ê1 0ú ú
1 êë1ë 0úû û

é periódica com período 2. A árvore de probabilidades ilustrada na f igura 5.4


mostra isso claramente.

1o passo 2o passo 3o passo

Figura 5.4: Árvore de probabilidades de uma cadeia de Markov com dois estados
periódicos

– 207 –
Um exemplo de cadeia com estados aperiódicos é a cadeia cuja árvore
está ilustrada na f igura 5.1. Na árvore dessa f igura, é fácil visualizar que,
partindo-se do estado 0, é possível alcançar-se o estado 0 em um passo; de
modo análogo, se a partida for do estado 1 alcança-se o mesmo estado em
um passo.
Em contraposição aos estados absorventes, se todos os estados de uma
dada cadeia de Markov se comunicam, a matriz de probabilidades de transi-
ção dessa cadeia exibirá propriedades especiais. A def inição de estados ‘comu-
nicantes’ é dada em seguida.

Def inição 5.10 (Estados comunicantes): O estado i se comunica com o estado


j, se partindo-se do estado i, for possível alcançar-se o estado j direta ou indi-
retamente, observando-se o sentido do arco que os une.

Exemplo 5.4: Dadas as matrizes de transição P1 e P2 associadas às cadeias de


Markov,

00 11 22 00 11 22
00ééê** 00 **ùùú 00éé** 0* **ùùú
=11êêê** ú*ú e P = 1êêê0 úú
PP11 = ** *úú P12 = 1 êê* ** *0úú ,
êêê úú êê úú
2 êëë**
2 ** **úûû 22êëë** ** *0úûû

identif icar se os estados se comunicam ou não. As posições marcadas com as-


terisco representam números positivos – probabilidades de transição para um
passo. Observe-se que os estados das cadeias de Markov das matrizes P1 e P2
são representados pelos números 0, 1 e 2 .
Considerando-se a segunda linha da matriz P1, isto é, partindo-se do
estado 1, é possível chegar diretamente a qualquer um dos estados. Na pri-
meira linha, de 0, não conseguimos chegar diretamente ao estado 1. Todavia,
de 0, podemos chegar ao estado 2 e daí alcançarmos o estado 1. Portanto,
na cadeia de Markov que a matriz P1 representa, todos os seus estados se
comunicam.
A partir da matriz P2 é possível construir o diagrama de transição da ca-
deia, na qual a existência de seta indica elemento positivo na matriz. A f igura
5.5 ilustra o diagrama de transição que corresponde à última matriz.

– 208 –
Figura 5.5: Diagrama de transição de uma cadeia de Markov em que o estado 1 é
absorvente

Ao analisarmos a cadeia do diagrama da figura 5.5, é imediata a consta-


tação de que os estados 0 e 2 se comunicam e que o estado 1 não se comunica
com os demais.
As cadeias de Markov em que todos os estados podem ser alcançados
a partir de todos os outros estados em um número f inito de passos, são cha-
madas de cadeias irredutíveis (ou cadeias regulares). Assim, as cadeias dos
exemplos 5.2 e 5.4 para a matriz de transição P1 são irredutíveis e aperiódicas.
O próximo teorema fornece uma regra prática para a identif icação de
cadeias irredutíveis. Ao elevarmos a matriz P da cadeia que queremos iden-
tif icar a potências n, podemos verif icar se existe algum n para o qual pij ( n) > 0
para todo i e j. Em caso af irmativo, a cadeia é irredutível.

Teorema 5.1: Uma condição suf iciente para se identif icar se uma cadeia é ir-
redutível é verificar a existência de algum número n inteiro não negativo, tal
que pij ( n) > 0 para todo i e j.

Exemplo 5.5: Dadas as matrizes seguintes:

é* 0 * 0ù
é* * 0ù ê ú
ê ú ê0 * 0 *ú
a) P = ê* 0 *ú ; e b) P = êê ú;
ê ú
ê0 * *ú ê* 0 * 0úú
ë û ê0 * 0 *úû
ë

– 209 –
verif ique, por meio da aplicação do teorema 5.1, se elas correspondem a ca-
deias irredutíveis ou equivalentemente regulares.
Tomamos a matriz P do caso (a) e a elevamos ao quadrado, obtendo:

é* * 0ù é* * 0ù é* * *ù
ê úê ú ê ú
P = ê* 0 *ú ê* 0 *ú = ê* * *ú .
2
ê úê ú ê ú
ê0 * *ú ê0 * *ú ê* * *ú
ë ûë û ë û

Efetuando o produto simbólico P por P, verif icamos que todas as posi-


ções com elementos nulos são preenchidas; portanto, é correto af irmar que a
cadeia é irredutível ou regular.
Tomamos a matriz P do caso (b) e a elevamos ao quadrado, obtendo:

é* 0 * 0ù
ê ú
ê0 * 0 *ú
P = êê
2 ú.
ê* 0 * 0úú
ê0 * 0 *úû
ë

De posse de P 2 , é imediata a constatação que a matriz P 3 exibe o mes-


mo padrão de preenchimentos com elementos positivos observado em P.
Consequentemente, todas as potências, P 4, P 5 , , P n exibirão padrões se-
melhantes ao de P. É possível concluir que não existe n tal que pij ( n) > 0. Isso
implica que a cadeia em questão não é irredutível. Conclusão idêntica pode
ser extraída se aplicarmos o resultado do teorema 5.1 à matriz P2 do exem-
plo 5.4, conf irmando-se assim a identif icação feita pelo método dos estados
comunicantes.
Para complementar a seção que trata da classif icação das cadeias de
Markov, considere-se a def inição de estado recorrente positivo.

Def inição 5.11 (Estado recorrente positivo): O estado i é recorrente positivo


se, partindo-se do estado i, o tempo esperado para o processo visitar nova-
mente esse estado for f inito. Se, porém, ao partir do estado i, o tempo espe-
rado para o processo voltar a visitar esse estado não for f inito, o estado é dito
recorrente nulo.

– 210 –
Estados recorrentes positivos que são aperiódicos são chamados de esta-
dos ergódicos. Consequentemente, cadeias que têm todos os estados ergódicos
são designadas cadeias ergódicas.

5.3.4 Análise de cadeias f initas irredutíveis com estados aperiódicos

As cadeias f initas de Markov cujos estados são recorrentes positivos e


aperiódicos gozam de uma propriedade singular, que está expressa no teore-
ma 5.2.

Teorema 5.2: Para uma cadeia irredutível e aperiódica, com todos os estados
recorrentes positivos, o vetor de probabilidades limites, v = [ v0 v1  vM ],
tal que v j = lim p j ( n) , é o único vetor de probabilidades de regime estacioná-
n→∞
rio e satisfaz às relações (5.10) e (5.11), a saber:

v = vP (5.10)
e

åv
j =0
j =1 , v j ³ 0 . (5.11)

O cálculo do vetor v pode ser efetuado usando-se o computador, atra-


vés da equação iterativa v( k+1) = v( k ) P , para k = 0, 1, 2, , arbitrando-se um
vetor de estimativa inicial v(0), até que a convergência seja alcançada. Uma
maneira alternativa para a obtenção de v é o método analítico: constrói-se
o sistema (5.10) e troca-se-lhe uma das M + 1 equações lineares pela relação
(5.11), para, em seguida, solucionar o sistema de equações resultante.
Com a aplicação do resultado do teorema 5.2, podemos calcular as pro-
babilidades estacionárias dos estados do sistema do exemplo 5.1.

Exemplo 5.6: Dado que a cadeia do exemplo 5.1 atende às condições do teo-
rema 5.2, isto é, é irredutível e aperiódica com estados recorrentes positivos,
calcule as probabilidades de regime estacionário.

Primeiramente, utilizamos a equação de iteração, tomando o vetor ini-


cial v(0) = [1 0] , que, para este exemplo, f ica conforme se vê a seguir:

– 211 –
é 12 1 ù 2
[ v0( k+1) v1( k+1) ] = [ v0( k ) v1( k ) ] ê 1 ú , com v(0) = [1 0] .
êë 4 3 ú

A tabela 5.2 resume os cálculos iterativos.

Tabela 5.2: Iterações para obtenção do vetor de probabilidades de regime estacionário

k v( k ) v( k+1) v( k+1) - v( k )
0 [1 0] [0, 500 0, 500] [-0, 500 0, 500]
1 [0, 500 0, 500] [0, 375 0,625] [- 0,125 0,125]
2 [0, 375 0,625] [0, 344 0,656] [- 0,031 0,031]
3 [0, 344 0,656] [0, 336 0,664] [- 8´10-3 8´10-3 ]
4 [0, 336 0,664] [0,334 0,666] [-2´10-3 2´10-3 ]

Em função da precisão requerida nos cálculos, mais iterações podem ser


realizadas. Recomendamos que o leitor repita o procedimento iterativo mostra-
do anteriormente, tomando qualquer outro vetor v(0) como estimativa inicial.
A f igura 5.6 ilustra a evolução das probabilidades dos estados 0 e 1 à
medida que o número de passos aumenta. Ressaltamos nestes cálculos a coin-
cidência entre o número de passos n e o contador de iterações k.

Figura 5.6: Probabilidades dos estados em função do número de passos para dois
vetores de probabilidades iniciais distintos

– 212 –
Os gráf icos ilustrados na figura 5.6 merecem alguns comentários. No da
esquerda, o vetor de probabilidades iniciais é p(0) = [1 0] , enquanto que no
gráf ico da direita, tal vetor é p(0) = [0 1] . Observa-se que o vetor de probabili-
dades de regime estacionário obtido independe do vetor de probabilidades iniciais.
Regra geral: para qualquer cadeia irredutível aperiódica, as probabili-
dades limites dos estados v j = lim p j ( n) = lim pij ( n) existem e são indepen-
n→∞ n→∞
dentes do vetor de probabilidades iniciais p(0).
O leitor é convidado a voltar ao exemplo 5.1 e traçar um paralelo entre
a solução obtida aqui através do processo iterativo e os cálculos efetuados na-
quele exemplo.
Agora, o cálculo das probabilidades estacionárias será feito analitica-
mente. Para tal, com base na expressão (5.10), obtemos o sistema de equações:

é 12 1 ù ïì 1 v - 1 v = 0
[ v0 v1 ] = [ v0 v1 ] ê 1 ú Þ ïí 2 0 4 1
2
.
êë 4 3 ú
4û ïïî- 12 v0 + 14 v1 = 0

Como as equações são linearmente dependentes, substitui-se a segunda –


arbitrou-se a segunda, mas poderia ser a primeira – pela equação (5.11). O siste-
ma de equações assim obtido é o seguinte:

ìïï 12 v0 - 14 v1 = 0
í .
ïïî v0 + v1 = 1

A solução desse sistema nos fornece v = [ 1 3 2 3 ] , que é a mesma solução


para a qual converge o método iterativo.
Ao estudar processos de Markov, é natural a expectativa do leitor por
conhecer as aplicações dessa interessante teoria na solução de problemas do
mundo real. A interpretação física dos resultados obtidos com os cálculos e a
tradução desses resultados para a linguagem natural são etapas essenciais para
a compreensão do comportamento do sistema sob análise.
Neste contexto, apresentamos em seguida algumas interpretações rele-
vantes:
– a probabilidade de regime estacionário, vi , é a porcentagem do tempo total
considerado que o processo permanece no estado i;
– para cadeias ergódicas, o recíproco da probabilidade de regime estacionário,
designado por mii , é o tempo esperado de recorrência do estado i, isto é,

– 213 –
1
mii = , para i = 0, 1, 2, ..., M, (5.12)
vi

em que, mii é o tempo médio do processo revisitar o estado i ;


– seja f uma função da variável aleatória X, por exemplo, custos f inanceiros
associados aos estados. As probabilidades estacionárias vi podem ser utili-
zadas para calcular a esperança matemática de f(X), assim:

M
E( f ( X )) = å vi f ( i) . (5.13)
i =0

Em seguida, apresentamos um exemplo que permite a interpretação dos


resultados obtidos de maneira mais prática.

Exemplo 5.7: Uma fábrica possui duas máquinas idênticas, essenciais ao pro-
cesso de manufatura, que são operadas continuamente, exceto quando estão
quebradas. Devido ao fato de serem muito sensíveis e quebrarem frequente-
mente, é necessário remunerar em tempo integral um técnico para reparar as
máquinas quando ocorrer alguma falha. Suponha que o intervalo de tempo
de observação seja de um dia e que a variável aleatória Xn representa o núme-
ro de máquinas quebradas no dia n. Os valores possíveis para a variável alea-
tória são Xn = 0, 1 e 2. Admita que durante cem dias de observações foram
anotadas as situações das duas máquinas, chegando-se às probabilidades de
transições dos estados para um dia que estão mostradas na matriz P:

0 1 2 0 1 2
0 é 20 20 60 ù 0 é0, 2 0, 2 0,6ù
ê ú ê ú
P = 1 ê 40 40 20ú 100 Þ P = 1 ê0, 4 0, 4 0, 2ú .
1
ê ú ê ú
2 êë 40 20 40úû 2 êë0, 4 0, 2 0, 4úû

Outro dado importante é que os custos de estar nos estados 0, 1 e 2 são,


respectivamente, $0,00, $1.500,00 e $10.000,00, e há também o custo f ixo de re-
muneração do técnico, que é $100,00 ao dia. O custo de duas máquinas paradas é
alto porque implica a parada da linha de produção, podendo causar sérios trans-
tornos à fábrica. A partir das probabilidades de regime estacionário, calcule:

– 214 –
a) na ocorrência de ambas as máquinas fora de operação, o número de dias
esperado para que esta situação ocorra novamente;
b) o número esperado de dias de ociosidade do técnico;
c) o custo por dia a longo prazo para manter as máquinas.

Com base na matriz, conclui-se que a cadeia é irredutível e aperiódica,


com estados recorrentes positivos. Por isso, podemos aplicar o teorema 5.2
para calcular o vetor v, do qual obtemos, por algum dos métodos usados no
exemplo anterior:
v = [0,3333 0,2500 0,4167].

O item (a) pede o tempo de recorrência para o estado 2. Basta calcular


1
m22 = , conforme (5.12), resultando no seguinte valor:
v2

m22 = 1
0,3333 Þ µ22 = 3 dias.

Para o item (b), o número esperado de dias de ociosidade do técnico cor-


responde aos dias em que ambas as máquinas f icam em operação, ou seja, é o
tempo de recorrência do estado 0,

µ00 = 1
0 , 4167 ⇒ µ00 = 2, 4 dias.

Finalmente, para o item (c), o custo por dia a longo prazo para manter as
máquinas é a esperança matemática da função custo em regime estacionário,
conforme (5.13).

E( f ( X )) = 0, 3333×0, 00 + 0, 25×1.500, 00 + 0, 4167 ×10.000, 00 Þ


E( f ( X )) = 4.542, 00 .

Devemos adicionar ao valor obtido anteriormente o custo f ixo de remu-


neração do técnico. Portanto, o custo por dia a longo prazo para manter as
máquinas é $ 4.642,00.
As cadeias de Markov analisadas nesta seção exibem a propriedade espe-
cial de que a potência P n , para n tendendo ao inf inito, resulta em uma matriz
cujas linhas são todas iguais. A expressão (5.14) exprime a mencionada pro-
priedade de forma mais clara:

– 215 –
é v0 v1  vM ù
ê ú
ê v0 v1  vM ú
lim P = êê
n ú. (5.14)
n®¥
ê    úú
êv v1  vM úû
ë 0

Por exemplo, a matriz do exemplo 5.6, ao ser elevada a expoentes cada


vez mais altos, resulta na seguinte matriz:

n
é 12 1 ù 2é1 2 ù
lim P = lim ê 1
n
ú =ê 3 ú.3

n®¥ n®¥ ê 3 ú êë 1 3 2 ú
ë 4 4û 3û

Esta é uma propriedade inerente às cadeias f initas irredutíveis e aperió-


dicas. No entanto, cadeias que possuem estados absorventes constituem uma
classe especial de processos que não exibem tal propriedade. Por exemplo, a
matriz do exemplo 5.3 é um caso que não atende a essa propriedade.

5.3.5 Análise de cadeias f initas com estados absorventes

O estudo das cadeias de Markov f initas com estados absorventes requer


que a matriz de probabilidades de transição P seja expressa de modo especial.
Isto implica que as linhas de P que correspondem aos estados não absorventes
devem ser arranjadas em primeiro lugar e, em seguida, nas últimas linhas,
f iguram os estados absorventes.
A expressão (5.15) mostra uma representação na forma canônica da ma-
triz de probabilidades de transição quando há estados absorventes:

é q11  q1r c1r+1  c1 s ù


ê ú
ê     ú
ê ú
ê qr1  qrr crr+1  crs ú é ù
P = êê ú Þ P = ê Q Cú , (5.15)
0  0 1  0 ú êë 0 I úû
ê ú
ê      úú
ê
ê ú
êë 0  0 0  1 úû
em que as linhas referentes às matrizes Q e C correspondem aos estados não ab-
sorventes Q e C e, as demais linhas (matrizes 0 e I), aos estados absorventes 0 e I.

– 216 –
A justificativa do cálculo da potência P n passa pelo seguinte desenvolvi-
mento: primeiramente, para k natural, prova-se que P k é igual à identidade
em (5.16):

éQ k Cùú
Pk = ê , (5.16)
ê0 I úû
ë

em que, o elemento da posição ( i, j ) da matriz Q k denota a probabilidade de


se chegar ao estado não absorvente j após k passos, partindo-se do estado não
absorvente i, enquanto C denota a submatriz C após k passos.
Uma das informações mais relevantes na análise de cadeias absorventes
é o número esperado de passos em que o processo f icará no estado não absor-
vente i antes da absorção. Considere-se o seguinte teorema.

Teorema 5.3: Para uma cadeia de Markov com pelo menos um estado absor-
vente, o número esperado de passos para a absorção partindo-se do estado não
absorvente i é o somatório dos elementos da iésima linha da matriz ( I - Q)-1.

O resultado desse teorema decorre do seguinte fato: para alcançar a ab-


sorção, o processo deve transitar antes por todos os estados não absorventes
nos passos 0, 1, 2,  . Assim, o número esperado de passos antes da absorção,
se o processo partiu do estado não absorvente i, é dado pelo somatório dos
elementos da iésima linha da matriz:

åQ
k =0
k
= Q0 + Q + Q 2 +  ,

observando-se que Q0 = I (e que a norma da matriz Q seja menor do que 1).

Finalmente, recorremos às séries convergentes, neste caso, aplicadas a


matrizes, que nos permitem concluir que o somatório anterior é igual à ma-
triz ( I - Q)-1.
A matriz ( I - Q)-1 , designada como matriz fundamental, é uma rica
fonte de informação sobre cadeias de Markov. Os elementos dessa matriz dão
o número de passos – ou o número de vezes – que o processo visita os estados
não absorventes antes de alcançar a absorção.

– 217 –
Antes de passarmos a um exemplo de aplicação, observe-se o estabeleci-
mento de mais um conceito importante sobre cadeias absorventes. Suponha-
se que o processo tenha partido do estado não absorvente i e que desejamos
calcular a probabilidade de absorção no estado j. Note-se que aqui o índice j
indica um estado absorvente.

Teorema 5.4: Para uma cadeia de Markov com pelo menos um estado absor-
vente, a probabilidade de o processo que partiu do estado não absorvente i
ser absorvido no estado j é o elemento da posição ( i, j ) da matriz que resulta
do produto ( I - Q)-1 C.

Uma forma possível para se concluir pela validade do teorema 5.4 é mos-
trar que o lim P n comporta-se como se mostra a seguir:
n®¥

é Q Cù
n
é0 ( I - Q)-1 Cù
lim P n = lim ê ú =ê ú. (5.17)
n®¥ n®¥ ê 0 I úû ê0 I ú
ë ë û

Estamos de posse de métodos e informações que permitem resolver um


exemplo de aplicação.

Exemplo 5.8: Considere o problema do enunciado do exemplo 5.3. Ambas


as turbinas em falha constituem um estado absorvente, do qual só se pode
escapar se uma das turbinas puder ser consertada enquanto o navio estiver
completamente parado ou se, de algum modo, turbinas novas puderem ser
instaladas no navio. Desejamos determinar o tempo médio – ou seja, o nú-
mero de passos – para o navio paralisar totalmente suas máquinas, supondo
que ele se encontra com ambas as turbinas operando normalmente. Calcule
também as probabilidades de absorção.
Do exemplo 5.3, temos que a matriz de probabilidades de transição para
este problema é a seguinte:

0 1 2
0é 1 0 0 ù
ê ú
P = 1 ê0,04 0, 42 0, 54ú ,
ê ú
2 êë 0,01 0,18 0,81úû

– 218 –
de que, pela expressão (5.15), obtemos:

2 1 0
2 é 0,81 0,18 0,01ù
ê ú
P = 1 ê0, 54 0, 42 0,04ú .
ê ú
0 êë 0 0 1 úû

De acordo com a expressão (5.15), as matrizes Q, C e I são como dadas


a seguir:
é 0,81 0,18 ù é 0,01ù
Q= ê ú , C= ê ú e I = [1] .
êë0, 54 0, 42úû êë0,04úû

A primeira pergunta refere-se ao número de passos necessários para al-


cançarmos o estado absorvente 0, tendo partido do estado 2. Portanto, neces-
sitamos calcular a matriz ( I - Q)-1, a saber:

é1 0ù é 0,81 0,18 ù é 0,19 -0,18ù


I -Q = ê ú-ê ú=ê ú,
êë0 1úû êë0, 54 0, 42úû êë-0, 54 0, 58 úû

−1
 0,19 −0,18  44, 6154 13, 8462
( I − Q)−1 =   = .
−0, 54 0, 58   41, 5385 14, 6154

A matriz fundamental ( I - Q)-1 é, então, da seguinte forma:

2 1
2  44, 6154 13, 8462
( I − Q)−1 =  .
1  41, 5385 14, 6154

A resposta à primeira questão é a soma dos elementos da primeira linha


da matriz fundamental (teorema 5.3), que resulta em 44,6154 + 13,8462 =
58,4616. Isto signif ica que, se duas turbinas estiverem em operação, o nú-
mero esperado de passos até que as duas se estraguem é de 58,5 unidades de
tempo.

– 219 –
As probabilidades de absorção são calculadas com base no teorema 5.4:

−1
 0,19 −0,18  0, 01  44, 61154 13, 8462  0, 01 1, 000
( I − Q) C = 
−1
  =  = ,
−0, 54 0, 58  0, 04  41, 5385 14, 6154 0, 04 1, 000

0
2 é1,000ù
( I - Q)-1 C = ê ú.
1 êë1,000úû

Partindo-se do estado com duas turbinas operando normalmente, a pro-


babilidade de absorção é igual a 1. Do mesmo modo, partindo-se do estado
com uma turbina, a probabilidade de absorção é também igual a 1.
As probabilidades para se alcançar a absorção partindo-se de qualquer
um dos estados não absorventes nem sempre são iguais à unidade. Isto ocorreu
neste exemplo, porque, na cadeia de Markov analisada, há apenas um estado
absorvente. O exemplo que será apresentado a seguir considera uma cadeia
com dois estados absorventes e tem por objetivo principal mostrar uma forma
alternativa ao teorema 5.3 de se calcular os tempos médios para absorção.

Exemplo 5.9: O reservatório de uma usina hidrelétrica é utilizado com a f ina-


lidade de prover renda adicional à população que habita suas vizinhanças, por
meio da atividade pesqueira. Periodicamente, a companhia que detém a con-
cessão supre o reservatório com alevinos, que se tornarão adultos, procriarão e
também servirão ao propósito da pesca. Estudos mostraram que existem dois
bons estados para pesca, os quais serão designados por s2 e s3. No entanto,
se a atividade pesqueira for intensif icada, a população de peixes pode cair a
níveis em que a pesca precise ser interrompida por certo tempo. Além disso,
em decorrência de causas naturais, o crescimento excessivo da população de
plantas aquáticas – algas e outras – pode alcançar um nível que prejudique a
pesca, levando também à suspensão da atividade, que somente será retomada
após a limpeza do lago. Esse sistema físico foi modelado como um processo
de Markov­em que o período de tempo considerado razoável para ser toma-
do como unidade de tempo é um mês – isto signif ica que um passo equivale
ao tempo de um mês. O estado que corresponde à inserção de alevinos no
reservatório é um estado transitório, que é denotado por s1. Os estados de in-

– 220 –
terrupção da pesca por redução do número de peixes e por poluição aquática
são simbolizados, respectivamente, por s4 e s5 , e são estados absorventes. As
probabilidades de transição foram levantadas por métodos estatísticos e estão
indicadas na matriz na forma canônica (5.15) mostrada a seguir:

s1 s2 s3 s4 s5
s1 é0 0,8 0 0,1 0,1ù
ê ú
s2 ê0 0,1 0,7 0,1 0,1ú
ê ú
P = s3 êê0 0, 5 0, 2 0, 2 0,1úú .
s4 êê0 0 0 1 0 úú
s5 êëê0 0 0 0 1 úûú

Desejamos conhecer o comportamento desse processo no regime esta-


cionário. Determine os tempos esperados para alcançar os estados absorven-
tes, partindo de estados não absorventes. Calcule também a probabilidade de
absorção no estado s4, se o processo partiu do estado transitório.
O grafo da cadeia de Markov desse exemplo é representado pela f igura
5.7, a título de ilustração apenas. Note-se nessa f igura o estado transitório s1 e
os estados absorventes s4 e s5.

Figura 5.7: Diagrama de transição da cadeia de Markov do modelo de piscicultura de


um reservatório de hidrelétrica

– 221 –
Os tempos médios para se alcançar a absorção, que são os números es-
perados de meses para atingir os estados absorventes, podem ser calculados
pela aplicação do teorema 5.3, de maneira análoga ao que foi feito no exemplo
anterior, isto é:

é1 0 0ù é0 0,8 0 ù é1 -0,8 0 ù
ê ú ê ú ê ú
I - Q = ê0 1 0ú - ê0 0,1 0,7 ú = ê0 0, 9 -0,7 ú
ê ú ê ú ê ú
ê0 0 1ú ê0 0, 5 0, 2ú ê0 -0, 5 0,8 ú
ë û ë û ë û
e

-1
é1 -0,8 0 ù s1 é1 1,73 1, 51 ù
ê ú ê ú
( I - Q) = ê0 0, 9 -0,7 ú Þ ( I - Q) = s2 ê0 2,16 1,89 ú .
-1 - 1
ê ú ê ú
ê0 -0, 5 0,8 ú s ê0 1, 35 2, 43ú
ë û 3 ë û

Os passos esperados antes da absorção são mostrados na tabela 5.3, atra-


vés da matriz fundamental ( I - Q)-1.

Tabela 5.3: Cálculos dos passos esperados antes da absorção a partir dos elementos da
matriz fundamental

Estado não absorvente de partida Passos esperados antes da absorção


s1 1 + 1,73 + 1, 51 = 4, 24 meses
s2 2,16 + 1,89 = 4,05 meses
s3 1,35+2,43=3,78 meses

Os passos calculados na tabela 5.3 são os tempos para absorção partindo-


se de estados não absorventes, também chamados de tempos de primeira pas-
sagem (vide a seção 5.3.6).
As probabilidades de absorção são obtidas aproveitando-se a matriz fun-
damental com base no procedimento proposto no teorema 5.4, a saber:

é1 1,73 1, 51 ù é 0,1 0,1ù


ê úê ú
( I - Q) C = ê0 2,16 1,89 ú ê 0,1 0,1ú ,
-1
ê úê ú
ê0 1, 35 2, 43ú ê0, 2 0,1ú
ë ûë û

– 222 –
s4 s5
s1 0, 58 0, 42
 
( I − Q)−1 C = s2 0, 59 0, 41 .
 
s3  0, 62 0, 38

A probabilidade de absorção no estado s4 , se o processo partiu do estado


transitório s1, é 0,58.
Os números que f iguram na matriz obtida anteriormente podem ser ob-
tidos aplicando-se o processo iterativo estabelecido na seção 5.3.4, também utili-
zado no exemplo 5.6. Arbitrando-se o vetor inicial v(0) = [1 0 0 0 0] , após
trinta iterações, obtém-se o vetor v(30) = [0 0,0001 0,0001 0, 5756 0, 4243].
Os dois últimos elementos de v(30) referem-se aos estados absorventes.

5.3.6 Tempos médios de recorrência

Nas seções anteriores, estudamos procedimentos de cálculo de tempo


médio de permanência em um dado estado i em processos de Markov apli-
cáveis para cadeias f initas irredutíveis, com estados aperiódicos e para cadeias
f initas com estados absorventes. No entanto, os resultados obtidos da expres-
são (5.12) e do método do teorema 5.3 podem ser alcançados no caso geral pelo
método que será estudado a seguir.
O tempo esperado para um processo revisitar o estado i, também conhe-
cido como tempo médio de recorrência, é def inido pela esperança matemática
indicada pela expressão (5.18)

¥ ¥
mii = å nfii ( n) , para å f ( n) = 1 ,
ii (5.18)
n=1 n=1

em que fii ( n) é a probabilidade de se revisitar o estado i em n passos.

O tempo esperado para um processo que tenha partido do estado i, após


n passos, retorne ao estado j, também conhecido como tempo de primeira
passagem, é def inido conforme a expressão (5.19):
¥
mij = å nfij ( n) , (5.19)
n=1

– 223 –
em que fij ( n) é a probabilidade de, em n passos, visitar o estado j, se o processo
partiu do estado i.¥
Dado que å fij ( n) = 1 para ( i, j ) Î S´ S, em que, S = {0,1, 2, , M },
n=1
as probabilidades fij ( n) podem ser calculadas pelas relações recursivas (5.20)

fij (1) = pij (1) = pij ,


fij (2) = pij (2) - fij (1) p jj ,
 (5.20)
fij ( n) = pij ( n) - fij (1) p jj ( n -1) - fij (2) p jj ( n - 2)- fij ( n -1) p jj .

Inicialmente será resolvido um exemplo que ilustrará as relações recur-


sivas (5.20).

Exemplo 5.10: Considerando o exemplo 5.7, se ambas as máquinas se estra-


gam, qual é a probabilidade de o tempo para consertar uma dessas máquinas
seja de dois dias?

Para responder a essa questão, precisamos calcular a probabilidade de o


tempo de primeira passagem do estado 0 ao 1 ser igual a 2 dias, ou seja, a proba-
bilidade f01 (2) . Utilizamos então as relações recursivas (5.20) para obter f01 (2)
f01 (1) = p01 = 0, 2 ,
f01 (2) = p01 (2) - f01 (1) p11 .

Para concluir, precisamos calcular p01 (2), a saber:

0, 2 0, 2 0, 6 0, 2 0, 2 0, 6 0, 36 0, 24 0, 40


    
P = 0, 4 0, 4 0, 2 0, 4 0, 4 0, 2 = 0, 36 0, 28 0, 36 Þ p01 (2) = 0, 24 .
2
    
0, 4 0, 2 0, 4 0, 4 0, 2 0, 4  0, 32 0, 24 0, 44
    
Portanto, a probabilidade de que o tempo para consertar uma dessas
máquinas seja de dois dias é igual a:

f01 (2) = p01 (2) - f01 (1) p11 = 0, 24 - 0, 2´0, 4 Þ f01 (2) = 0,16 .

– 224 –
Vamos exemplificar o uso da fórmula (5.19) e das relações recursivas
(5.20) na solução do item do exemplo 5.9, que pede o número de passos espe-
rados antes da absorção, o qual foi resolvido através da matriz fundamental.

Exemplo 5.11: Considerando o exemplo 5.9, supondo que o processo tenha


partido do estado 1, calcule os tempos médios de primeira passagem para os
estados 4 e 5.

Supondo s1 o estado de partida, ou seja, i = 1.:

Para j = 4, temos: f14 (1) = p14 (1) = 0,1,

f14 (2) = p14 (2) - f14 (1) p44 = 0,18 - 0,1´1 Þ f14 (2) = 0,08,

f14 (3) = p14 (3) - f14 (1) p44 (2) - f14 (2) p44 = 0, 3 - 0,1´1- 0,08´1 Þ f14 (3) = 0,12,

f14 (4) = p14 (4) - f14 (1) p44 (3) - f14 (2) p44 (2) - f14 (3) p44
f14 (4) = 0, 3624 - 0,1´1- 0,08´1- 0,12´1 Þ f14 (4) = 0,0624 ,

f14 (5) = p14 (5) - f14 (1) p44 (4) - f14 (2) p44 (3) - f14 (3) p44 (2) - f14 (4) p44
f14 (5) = 0, 4207 - 0,1´1- 0,08´1- 0,12´1- 0,0624´1 Þ f14 (5) = 0,0583, ;

para j=5:
f15 (1) = p15 (1) = 0,1 ,

f15 (2) = p15 (2) - f15 (1) p55 = 0,18 - 0,1´1 Þ f15 (2) = 0,08 ,

f15 (3) = p15 (3) - f15 (1) p55 (2) - f15 (2) p55 = 0, 244 - 0,1´1- 0,08´1 Þ
f15 (3) = 0,064 ,

f15 (4) = p15 (4) - f15 (1) p55 (3) - f15 (2) p55 (2) - f15 (3) p55
f15 (4) = 0, 2896 - 0,1´1- 0,08´1- 0,064´1 Þ f15 (4) = 0,0456 ,

– 225 –
f15 (5) = p15 (5) - f15 (1) p55 (4) - f15 (2) p55 (3) - f15 (3) p55 (2) - f15 (4) p55

f15 (5) = 0, 3244 - 0,1´1- 0,08´1- 0,064´1- 0,0456´1

Þ f15 (5) = 0,0348, .

Obviamente, os cálculos devem continuar até que se alcance um valor


de n considerado alto. A tabela 5.4 mostra os resultados parciais obtidos com
o uso do computador.

Tabela 5.4: Valores de f14 ( k) e f15 ( k) para k=1, 2, ..., 30


f14 ( k) f15(k)

0,1000 0,0091 0,0005 0,1000 0,0058 0,0003


0,0800 0,0068 0,0004 0,0800 0,0043 0,0002
0,1200 0,0050 0,0003 0,0640 0,0032 0,0002
0,0624 0,0037 0,0002 0,0456 0,0024 0,0001
0,0583 0,0028 0,0001 0,0348 0,0018 0,0001
0,0381 0,0021 0,0001 0,0255 0,0013 0,0001
0,0307 0,0015 0,0001 0,0191 0,0010 0,0001
0,0218 0,0011 0,0001 0,0142 0,0007 0,0000
0,0167 0,0009 0,0000 0,0106 0,0005 0,0000
0,0122 0,0006 0,0000 0,0078 0,0004 0,0000

Aplicamos então a expressão (5.19) duas vezes, resultando em m14 e em m15,

m14 = 2,5448 e m15 = 1,6981 .

Adicionando os dois tempos médios, encontramos o número esperado


de passos antes da absorção, partindo do estado s1, 2, 5448 + 1,6981 = 4, 2429
meses. Esse resultado é o mesmo obtido anteriormente por meio da matriz
fundamental (vide a tabela 5.3).

– 226 –
Conforme já se mencionou no início deste capítulo, existem processos
estocásticos com características de processos de Markov em que o tempo não
é uma variável discreta, embora os estados sejam discretos. Essa classe de pro-
cessos markovianos será estudada na seção seguinte.

5.4 Processos de Markov de tempo contínuo

Processos de Markov de tempo contínuo são similares aos processos de


Markov de tempo discreto, exceto pelo fato de as transições entre estados po-
derem ocorrer a qualquer momento. Isto é, enquanto processos de Markov de
tempo discreto são processos cujos estados mudam ao longo do tempo em um
intervalo de tempo predef inido – chamado passo –, os processos de Markov
de tempo contínuo são aqueles cujos estados mudam ao longo do tempo em
qualquer instante. O conjunto que denota o espaço de estados do processo, a
exemplo dos processos de Markov estudados anteriormente, é discreto e pode
ser f inito ou inf inito.
Com o objetivo de caracterizar precisamente os processos markovianos
de tempo contínuo, serão formalmente estabelecidas, a seguir, as relações que
regem o seu comportamento.
Em primeiro lugar, a def inição 5.1 se aplica aos processos de Markov
de tempo contínuo, em particular a expressão (5.3), ambas dadas anterior-
mente.

Def inição 5.12 (Probabilidade de transição): Considere o instante de tempo


u, tal que 0 £ u £ t , e os estados i e j, i=0, 1, 2, ... e j=0, 1, 2, ... . A probabili-
dade de transição pij ( u, t) é def inida pela probabilidade condicional

pij ( u, t) = P( Xt = j | Xu = i)
e

ïì1, se i = j
pij ( t, t) = ïí .
ïïî0, se i ¹ j

Essa def inição pode ser interpretada conforme a figura 5.8. Observamos


que a f igura 5.8(a) possui o mesmo signif icado da figura 5.8(b).

– 227 –
Figura 5.8: Probabilidade de transição de tempo contínuo

Para def inirmos completamente um processo de Markov de tempo con-


tínuo é preciso def inir as probabilidades dos estados, p j ( t) no instante t, para
j=0, 1, 2, ... .

Def inição 5.13 (Probabilidade de estado): A probabilidade de o processo ser


encontrado no estado j no instante de tempo t é def inida por:

p j ( t) = P ( X t = j ) .
Com base no teorema da probabilidade total, podemos relacionar a pro-
babilidade de estado p j ( t) e a probabilidade de transição pij ( u, t), para 0 £ u £ t,
por meio do somatório (5.21), a seguir:

p j ( t) = å pij ( u, t) pi ( u) , para j=0, 1, 2, ... . (5.21)


i

Suporemos o instante inicial em u=0, a expressão (5.21) reduz-se à se-


guinte forma:

p j ( t) = å pij (0, t) pi (0) , para j=0, 1, 2, ...,


i

que associa probabilidades de transição entre dois instantes, 0 e t, e as proba-


bilidades de estado correspondentes aos mesmos instantes.
Nas análises de cadeias de Markov de tempo contínuo, necessitamos da
def inição de taxa de transição entre dois estados, o que difere dos processos de
tempo discreto, estudados na seção anterior.

– 228 –
Def inição 5.14 (Taxa de transição e taxa de estado no instante de tempo):
A taxa de transição do estado i para o estado j é def inida pela função não
negativa

pij ( t, t + Dt)
t Î T = [0, ¥)  gij ( t) = lim , i ¹ j,
Dt®0 Dt
e

gii ( t) = -å gij ( t) .
i¹ j

Dizemos que a taxa de estado i no instante de tempo t é a função def inida por

t Î T = [0, ¥)  gi ( t) = - gii ( t).

Isto é, gi ( t) é o somatório das taxas de transição do estado i aos estados


adjacentes.

As taxas e as probabilidades de estado def inidas anteriormente para ca-


deias de Markov de tempo contínuo são relacionadas por meio da equação de
Kolmogorov, mostrada em (5.22):

dp j ( t)
= - g j ( t) p j ( t) + å gij ( t) pi ( t) , para j=0, 1, 2, ... . (5.22)
dt i¹ j

Nessa expressão, o primeiro membro é a derivada da probabilidade do


p j ( t, t + Dt)
estado j, que pode ser escrita como lim .
Dt®0 Dt
A seguir, apresentaremos um exemplo para ilustrar a utilização da equa-
ção de Kolmogorov.

Exemplo 5.12: Considere o diagrama de transição de uma cadeia de dois


estados e suas taxas de transição constantes, ilustrados na f igura 5.9. De-
termine as taxas dos estados e escreva as equações de Kolmogorov para os
estados 0 e 1.

– 229 –
Figura 5.9: Diagrama de transição de uma cadeia de Markov de tempo contínuo

Observamos o diagrama da figura 5.9 e, de acordo com a def inição 5.14, obte-


mos as taxas dos estados:

g0 ( t) = g01 ( t) = 2 e g1 ( t) = g10 ( t) = 3 .

Escrevemos em seguida, para cada estado, a equação (5.22):

dp0 ( t)
= - g0 ( t) p0 ( t) + g10 ( t) p1 ( t)
dt
e
dp1 ( t)
= - g1 ( t) p1 ( t) + g01 ( t) p0 ( t) .
dt

Após substituirmos os valores numéricos, obtemos as equações diferenciais de


primeira ordem com coef icientes constantes:

dp0 ( t)
= -2 p0 ( t) + 3 p1 ( t)
dt
e
dp1 ( t)
= -3 p1 ( t) + 2 p0 ( t) .
dt
Ao resolvermos as equações diferenciais, obtemos as probabilidades instantâ-
neas dos estados 0 e 1, respectivamente, p0 ( t) e p1 ( t) . Para tal, usaremos a
seguinte propriedade, que deve verificar-se: para qualquer instante t, a soma
p0 ( t) + p1 ( t) = 1 . Depois de realizadas substituições, chegamos às seguintes
equações diferenciais de primeira ordem:

– 230 –
dp0 ( t)
+ 5 p0 ( t) = 3
e
dt

dp1 ( t)
+ 5 p1 ( t) = 2 .
dt
Embora equações diferenciais constituam um tema muito vasto da Ma-
temática, as equações diferenciais como as obtidas aqui são simples e admitem
soluções na forma de funções exponenciais. Supondo-se que o processo tenha
partido do estado 0, isto é, p0 (0) = 1 e p1 (0) = 0 , obtemos as soluções, que são
as probabilidades instantâneas dos estados:

3 2
p0 ( t) = + e-5 t
e
5 5

2 2
p1 ( t) = - e-5 t .
5 5

Se calcularmos os limites das funções p0 ( t) e p1 ( t) para t ® ¥ , obtere-


mos as probabilidades estacionárias v0 e v1:

3
lim p0 ( t) = v0  v0 =
t®¥ 5
e

2
lim p1 ( t) = v1  v1 = .
t®¥ 5
A partir deste ponto, este texto restringir-se-á ao estudo de processos de Markov
de tempo contínuo, com foco para o próximo capítulo, sobre sistemas de f ilas
de espera.

5.4.1 Cadeias de Markov homogêneas de tempo contínuo

As cadeias de Markov {Xt ; t ≥ 0} são designadas cadeias tempo-homogê-


neas, ou cadeias de Markov homogêneas de tempo contínuo, quando as proba-
bilidades de transição pij ( u, t) dependem somente da diferença de tempos t – u.
Essa diferença de tempos tem a propriedade de tornar discreto o tempo.
Dessa forma, em cadeias de Markov tempo-homogêneas, as taxas de transição

– 231 –
são constantes com o passar do tempo. O exemplo 5.12 trata, portanto, de uma
cadeia de Markov tempo-homogênea.
Uma propriedade inerente às cadeias de Markov de tempo contínuo do
tipo tempo-homogêneas é que o futuro do processo é completamente def inido
no estado presente. Portanto, a distribuição da variável aleatória tempo de
permanência de um processo em um dado estado deve ser “sem memória”.
Designando Y tal variável aleatória, a seguinte probabilidade condicional

P ( Y £ t + r | Y ³ t) = P ( Y £ r )

descreve objetivamente essa propriedade. A f igura 5.10 ilustra no eixo dos


tempos as localizações de t e de r, sendo Y Î [ t, t + r].

Figura 5.10: Localização de variáveis no eixo dos tempos

Neste ponto, é interessante ressaltar que a propriedade conhecida como


“sem memória” implica que a fdp de Y para cadeias de Markov tempo-homo-
gêneas é uma exponencial negativa com taxa constante.
O que nos interessa é a análise de cadeias de Markov de tempo contínuo
no regime estacionário, que possuam taxas de transição constantes. Do ponto
de vista das equações, os modelos serão independentes da variável tempo e,
consequentemente, não serão tratados com equações diferenciais, embora os
modelos tenham origem na equação de Kolmogorov.
Dentre as consequências das restrições impostas ao tratamento das ca-
deias de Markov de tempo contínuo, conforme estabelece o parágrafo prece-
dente, temos:
• vj é a probabilidade estacionária para o estado j e é dada por v j = lim p j ( t);
t®¥
portanto, usaremos v j em lugar da notação p j ( t) ;
• omitiremos o argumento t na notação das taxas de transição e de estado,
uma vez que tais taxas serão supostas constantes; e
• omitiremos o argumento t na notação das probabilidades de transição.

– 232 –
Nas condições descritas, a equação de Kolmogorov para o jotaésimo es-
tado é conforme mostra a expressão (5.23), tendo em vista que a derivada da
probabilidade de estado em regime estacionário reduz-se a zero:

0 = − g j v j + ∑ gij vi , para j=0, 1, 2, ..., M. (5.23)


i≠ j

Para possibilitar a análise de cadeias de Markov tempo-homogêneas em


regime estacionário, usaremos a notação matricial. O primeiro passo consis-
tirá naturalmente em estabelecer procedimentos sistemáticos para a obtenção
das matrizes apropriadas ao estudo.

A partir da equação (5.23), substituindo-se g j por - g jj de acordo com


a def inição 5.14, obtemos a seguinte expressão:

å g v = 0 , para j=0, 1, 2, ..., M,


i =0
ij i (5.24)

que, para uma cadeia de Markov de M + 1 nós, resultará em M + 1 equações


lineares algébricas.

5.4.1.1 Matriz taxa de transição e matriz de transição

Considere-se a cadeia de Markov {Xt ; t ≥ 0} com matriz taxa de transição

G = [ gij ] ,

e com matriz de transição

P = [ pij ] ,

para gij conforme a def inição 5.14 e para pij conforme a def inição 5.12. En-
tão, um procedimento para a obtenção da matriz de transição é o seguinte:

• se gii < 0, as probabilidades de transição pij são:

– 233 –
ìï g
ïï pij = - ij , i ¹ j
ïï gii
ïï
í
ïï
ïï pii = 0;
ïï
ïî

• se gii = 0, as probabilidades de transição pij são:

ïìï pij = 0, i ¹ j
ï
í
ïï
ïïî pii = 1;

e o estado i é um estado absorvente, tal como no caso discreto.

Exemplo 5.13: Determine a matriz de transição para o processo de Markov


tempo-homogêneo representado no diagrama da f igura 5.11.

Figura 5.11: Diagrama de transição de uma cadeia de Markov de tempo contínuo e


tempo-homogênea

– 234 –
Utilizaremos o procedimento a saber: pela def inição 5.14, para i,
j=0, 1, 2,

g00 = -å g0 j = -( g01 + g02 ) Þ g00 = -(1 + 0) = -1 ,


0¹ j

g11 = -å g1 j = -( g10 + g12 ) Þ g11 = -(2 + 3) = -5


1¹ j
e
g22 = -å g2 j = -( g20 + g21 ) Þ g22 = -(0 + 0) = 0 .
2¹ j

Segue-se que, como g00 = -1 < 0 ,

g01 g
p00 = 0 , p01 = - = 1 , p02 = - 02 = 0 ;
g00 g00

como g11 = -5 < 0 ,

g10 2 g 3
p11 = 0 , p10 = - = , p12 = - 12 = ;
g11 5 g11 5

como g22 = 0 ,
p22 = 1 , p20 = p21 = 0 .

Portanto, a matriz de transição é

0 1 2
0 0 1 0
 
P = 1  52 0 53  .
 
2 0 0 1

Note que o estado 2 é absorvente. Observe, também, que a matriz


taxa de transição é dada por G, que no caso homogêneo é constante, a saber:

– 235 –
00 11 22
é-1 ù
00é- ê1 11 00ù ú
= ê ê ú3ú .
G = 1 ê22
G 1 ê --55 3ú ú
êê úú
22êë ë00 00 00úû û

Então, a matriz de transição P possui vetor de probabilidades em cada


linha com soma igual a um, enquanto que na matriz taxa de transição G a
soma dos elementos de cada linha é igual a zero.

5.4.1.2 Equação de Kolmogorov em regime estacionário e matriz estocástica

A matriz taxa de transição def inida na seção anterior e a forma particu-


lar da equação de Kolmogorov expressa por (5.24) nos levam a uma expressão
matricial homogênea que está indicada em (5.25):

vG = 0 , (5.25)

que pode ser solucionada para a obtenção de v com o auxílio da relação com-
plementar (5.26),

å v =1.
i =0
i (5.26)

Outra matriz de grande utilidade pode ser obtida ao manusear a equa-


ção (5.25), designada matriz estocástica, denotada pelo símbolo E (BILLIN-
TON, 1970).
Para um nó j de uma cadeia de Markov temos, conforme a equação
(5.24), a equação

å g v =0⇒ g
ij i jj v j + å gij vi = 0 ,
i =0 i¹ j

que, após a adição de v j em ambos os membros, reduz-se a

(1 + g jj )v j + å gij vi = v j .
i¹ j

– 236 –
Da def inição 5.14 resulta a seguinte expressão:

(1- å gij )v j + å gij vi = v j para j=0, 1, 2, ..., M.


i¹ j i¹ j

Para um nó j, temos a relação detalhada

v j = v0 g0 j + v1 g1 j +  + v j (1- å gij ) +  + vM gMj .


i¹ j

Concluímos, então, que a relação matricial mostrada a seguir pode ser


escrita em função da matriz estocástica a saber:

0 0 1  j  M
1− ∑ g0 j g01  g0 j  g0 M 
 0≠ j 
1  
 g10 1− ∑ g1 j  g1 j  g1M 
.. 
.  1≠ j 
 
i        
..  
.  gi 0 g i1  gij  giM 
v=v  ,
j        
 
..
 g j0
 g j1  1− ∑ gij  g jM 
.  i≠ j 
       
M  
 
 gM 0 gM1  gMj  1− ∑ gMj 
 M≠ j 

v = vE , (5.27)

em que v é o vetor

v = [ v0 v1  v j  vM ] .

– 237 –
Diante do exposto, a matriz estocástica E = [ eij ] tem seus elementos
def inidos como a seguir:

ìï
ïï e = gij , i¹ j
ïï ij
í
ïï
ïï eii = 1- å gij .
ïïî i¹ j

Exemplo 5.14: Determine a matriz estocástica para o processo de Markov


tempo-homogêneo do exemplo anterior.

Resolveremos este exemplo usando o seguinte procedimento: os elemen-


tos fora da diagonal da matriz estocástica E são as próprias taxas de transição

e01 = g01 = 1 , e02 = g02 = 0 ,

e10 = g10 = 2 , e12 = g12 = 3


e
e20 = g20 = 0 , e21 = g21 = 0 .

Cada elemento da diagonal é obtido subtraindo-se da unidade a soma


das taxas dos arcos que deixam o nó correspondente:
e00 = 1- ( g01 + g02 ) Þ e00 = 1- (1 + 0) = 0 ,

e11 = 1- ( g10 + g12 ) Þ e11 = 1- (2 + 3) = -4 ,


e
e22 = 1- ( g20 + g21 ) Þ e22 = 1- (0 + 0) = 1 .

Finalmente, a matriz estocástica então obtida é mostrada a seguir:

0 1 2
0 é0 1 0ù
ê ú
E = 1 ê 2 -4 3ú .
ê ú
2 êë0 0 1úû

– 238 –
Note que cada linha da matriz estocástica E tem soma igual a um; po-
rém, seus elementos não são probabilidades.
Quanto às cadeias, a mesma classif icação apresentada nas seções que
trataram de processos discretos no tempo é válida, exceto o conceito de
periodicidade, que está associado ao conceito de passos. Assim, teremos,
como antes, cadeias com estados recorrentes e cadeias com estados transi-
tórios. A classe das cadeias recorrentes compreende também as cadeias ab-
sorventes. Um estado i é considerado absorvente se gij = 0 para i ¹ j, de
modo que, uma vez que entra nesse estado, o processo é destinado a per-
manecer nele. Como def inimos anteriormente, em uma cadeia irredutível,
todo estado pode ser alcançado, partindo-se de qualquer outro estado.
Os processos de Markov homogêneo de tempo contínuo encontram apli-
cações em diversas áreas. A seguir será apresentado para estudo um exemplo
de aplicação à conf iabilidade, inspirado em Billinton (1970).

Exemplo 5.15: É usual em subestações de energia elétrica utilizarem-se


dois transformadores idênticos em paralelo, de modo que a potência de
cada um seja suf iciente para atender à instalação. A motivação para isso
é o aumento da conf iabilidade da subestação relativamente à alternativa
de usar um único transformador. A f igura 5.12 ilustra o esquema elétrico
simplif icado para a análise de falha. A seta da f igura indica o sentido do
f  luxo de energia.

Figura 5.12: Dois transformadores idênticos em paralelo

– 239 –
No esquema com dois transformadores em paralelo, a indisponibilidade do
sistema ocorrerá apenas se ambas as máquinas estiverem fora de operação,
porque implicará a interrupção do f  luxo de energia. Os estados possíveis para
os transformadores são: ambos em operação (0 em falha), um em operação e o
outro em falha (1 em falha) e os dois fora de operação (2 em falha). A taxa de
falha é l e a taxa de reparo é m, ambas associadas a distribuições exponen-
ciais independentes. Suponhamos também que, se os dois transformadores
estiverem em operação, não é possível que ambos falhem simultaneamente,
e nem é possível consertar os dois ao mesmo tempo. O diagrama de transição
do processo está representado na f igura 5.13.

Figura 5.13: Diagrama de transição da cadeia de Markov de dois transformadores


em paralelo

Supondo que as condições de regime estacionário sejam verif icadas, de-


termine as seguintes informações:
a) a probabilidade de falha;
b) a disponibilidade do sistema; e
c) o tempo médio para o sistema falhar, dado que se encontra em plena ope-
ração.

Para solucionar o exemplo, montamos a matriz estocástica a partir do


diagrama da f igura 5.13:
0 1 2
0 é1- 2l 2l 0 ù
ê ú
E=1ê m 1- (l + m) l ú.
ê ú
2 êë 0 2m 1- 2múû

– 240 –
Para obter as respostas às duas primeiras questões, precisamos calcular
as probabilidades estacionárias dos estados. Para tal, utilizamos as relações
M
v = vE e åv
j =0
j = 1 , que são solucionadas pelo método analítico:

m2
v0 = ,
(l + m)2
2lm
v1 =
(l + m)2
e
l2
v2 = .
(l + m)2

Dado que qualquer um dos transformadores é capaz de suprir a ins-


talação, a probabilidade de falha corresponde aos dois equipamentos em
falha,

λ2 .
v2 =
(λ + µ)2

A disponibilidade do sistema, no caso do sistema em paralelo, é a pro-


babilidade de que ao menos uma unidade esteja em operação (ou seja, dispo-
nível),

m 2 + 2lm
v0 + v1 = .
(l + m)2

A resposta ao item (b) está intimamente relacionada à natureza do pro-


blema sob análise; neste caso, depende essencialmente da forma como são
ligados os transformadores. Por exemplo, se os transformadores estivessem
em série (o que não é usual), a disponibilidade implicaria necessariamente a
operação de ambos.
Para responder à última questão formulada, lançamos mão de um ar-
tifício: supomos que o estado 2 é absorvente e calculamos, a partir da matriz
estocástica modif icada, o tempo para alcançar a absorção, partindo do estado
0 – ambos em operação. No contexto do estudo da conf iabilidade, o tempo

– 241 –
para alcançar a falha total do sistema é designado MTTF, que é a sigla para
mean time to failure (cuja tradução é tempo médio para a falha).

Supondo-se o estado 2 um estado absorvente, a matriz estocástica, E, é


como segue:

0 1 2
0 é1- 2l 2l 0ù
ê ú
E=1 mê 1- (l + m) l ú .
ê ú
2 êë 0 0 1 úû

A exemplo dos estudos anteriores, na seção 5.3.5, identif icamos na ma-


triz estocástica E a submatriz Q,

0 1
0 é1- 2l 2l ù
Q= ê ú.
1 êë m 1- (l + m)úû
Calculamos a matriz fundamental ( I - Q)-1 :

1 él + m 2l ù
( I - Q)-1 = ê ú.
2l 2 êë m 2l úû

Partindo do estado 0 – que é o sistema em plena operação –, o MTTF


(tempo antes do estado absorvente) é

1 (3l + m)
MTTF = (λ + µ + 2λ ) ⇒ MTTF = .
2λ 2
2l 2

Em aplicações a casos reais, os valores típicos de l e  são, respectiva-


mente, 0,2 falhas por ano e 6 reparos por ano, o que resulta um tempo médio
para a falha de 82,5 anos.
No próximo capítulo daremos continuidade ao estudo de modelos proba-
bilísticos – processos estocásticos – através do tópico sistemas de f ilas de espera.

– 242 –
Para concluir o estudo deste capítulo, sugerimos a solução dos exercícios
propostos.

5.5 Exercícios propostos

1. (BRONSON, 1985) Um recenseamento econômico revelou que, em uma


dada população, as famílias são divididas em dois grupos: (1) as economica-
mente estáveis; e (2) aquelas em depressão. Depois de um período de 10 anos,
a probabilidade de que uma família estável assim permaneça é de 0,92, en-
quanto a probabilidade de ela entrar em depressão é de 0,08. A probabilidade
de que uma família em depressão se torne estável é 0,03, enquanto a probabi-
lidade de que ela assim permaneça é de 0,97. Calcule a probabilidade de uma
família estável estar em depressão a longo prazo. Obtenha também o tempo
médio que uma família estável permanece nessa condição.

2. (ACKOFF; SASSIENI, 1977) Um representante comercial visita seus clien-


tes a cada mês. A experiência passada mostra que, se um cliente fez um pedido
no último mês, a probabilidade de um novo pedido no mês corrente é 0,3; se
não foi efetuado pedido algum no mês passado, a probabilidade é 0,6. Assim,
em cada um dos meses subsequentes ao primeiro, cada cliente deve encontrar-
se em um dos dois estados:
• estado 0: nenhum pedido no mês passado; e
• estado 1: um pedido no mês passado.
Dessa forma, com base nas probabilidades de transição, podemos predizer o
comportamento no futuro. Para um cliente do universo dos que não f izeram
pedidos no mês anterior, determine a probabilidade de que o tempo transcor-
rido para efetuar um novo pedido seja de 3 meses.

3. (SHAMBLIN & STEVENS JR., 1989) Suponhamos que fabricantes de


automóveis das marcas Ford, Chevrolet e Plymouth tenham colhido os da-
dos constantes da tabela 5.5, sobre as probabilidades de futuras compras de
seus clientes. Essa tabela apresenta a probabilidade de um cliente que ago-
ra, n = 0, possui uma dessas marcas vir a adquirir um Ford (estado s1), um
Chevrolet (estado s2 ) ou um Plymouth (estado s3 ) na próxima vez, isto é, no
próximo passo, n = 1 .

– 243 –
Tabela 5.5: Probabilidade (%) de compras em função do estado atual

Situação atual Próxima compra ( n = 1 )


( n= 0 )
% compra Ford % compra Chevrolet % compra Plymouth
Ford 40 30 30
Chevrolet 20 50 30
Plymouth 25 25 50

Modele o problema como uma cadeia de Markov de tempo discreto com pas-
so igual a um ano. E, determine:

a) a matriz de probabilidades de transição para esse processo;


b) a classif icação dessa cadeia;
c) as probabilidades estacionárias;
d) o tempo médio que o comprador de um Ford permanece com essa marca; e
e) o número esperado de anos em que o cliente que atualmente possui um
Ford compre um Plymouth.

Como sugestão para resolver a questão (e), faça artif icialmente do estado


s3 um estado absorvente e calcule o tempo esperado para a absorção.

4. Dadas as matrizes de transição para um passo, classif ique cada uma das


cadeias.
é 1 3 16 1 4 1 4 ù
é0, 2 0,1 0,7 ù ê ú
ê ú ê0 0 0 1ú
ê ú ê
(a) P = 0,1 0, 3 0,6 ; (b) P = ê ú.
ê ú 0 0 1 0 ú
ê0, 3 0, 4 0, 3ú ê ú
ë û ê 18 18 1 4 1 2 ú
ë û

5. Em 1993, a utilização do solo em uma cidade de 130 quilômetros quadrados


de área ocupada apresentava os seguintes índices:
uso residencial 30% ® estado s1 ;
uso comercial 20% ® estado s2 ;
uso industrial 50% ® estado s3 .

– 244 –
a) Calcule os percentuais de ocupação do solo nessa cidade em 2003, assu-
mindo que as probabilidades de transição para intervalos de cinco anos são
dadas pela seguinte matriz:

s1 s2 s3
s1 é 0 ,8 0 ,1 0 ,1 ù
ê ú
P = s2 ê 0 ,1 0 ,7 0 ,2 ú .
ê ú
s3 ê 0 0 ,1 0 ,9 ú
ë û

b) Encontre as probabilidades limites dos estados de utilização do solo nessa


cidade.

6. Em relação ao exercício anterior sobre ocupação do solo da cidade, suponha


que uma área destinada à indústria f ique imprestável para uso residencial
ou comercial. Imaginando-se o estado s3 como estado absorvente, determine
o número esperado de passos (em anos) para que uma região residencial se
torne industrial.

7. As sociedades ocidentais são estratif icadas em função do poder aquisitivo


das famílias. Suponha-se que as classes sociais sejam: (a) classe A – ricos; (b)
classe B – classe média; (c) classe C – pobres; e (d) classes D, E etc. – miserá-
veis. No Brasil, o Instituto Brasileiro de Geograf ia e Estatística, IBGE, realiza
periodicamente um censo econômico, que, com base em amostragem, traça
um perf il razoavelmente preciso da população com o foco na sua condição
socioeconômica. A cada censo são observadas as mudanças das famílias entre
as classes. Modele o processo como uma cadeia de Markov de tempo discreto,
em que os estados são as classes indicadas anteriormente, e o estado do item
(d) é um estado absorvente. Para análise, considere os dados que constam da
matriz de probabilidades de transição P, dada. Se o passo é o intervalo de tem-
po igual a dez anos, calcule o número de passos antes da absorção se o processo
partir do estado “rico”. Ao usar a matriz, considere as seguintes associações:
pobre ® 0;
miserável ® 1;
médio ® 2;
rico ® 3;

– 245 –
0 1 2 3
0 é0, 4 0, 4 0,1 0,1ù
ê ú
1ê 0 1 0 0ú
P= ê ê ú.
2 ê0, 3 0,1 0, 5 0,1úú
3 êë 0,1 0 0,6 0, 3úû

8. Elabore um programa de computador para calcular fij ( k), sendo i = 1 e


j = 4, 5 , de modo que, com base nos dados do exemplo 5.9, sejam reproduzi-
dos os resultados que constam da tabela 5.4.

9. (BILLINTON, 1970) Dois equipamentos idênticos são instalados e operam


em série. Admita que é possível um equipamento falhar enquanto a outra unida-
de está em falha. Suponha três estados para modelar o processo como uma cadeia
de Markov de tempo contínuo com taxas l e m, respectivamente, para falha e re-
m2
paro. Mostre que a disponibilidade do sistema vale e que a MTTF
(l + m)2
é igual a 1 2l (MTTF é o tempo médio para a falha).

10. Um sistema com um único servidor aberto ao público tem seus tempos de
atendimento distribuídos exponencialmente com taxa igual a m . Os tempos en-
tre chegada dos usuários que demandam pelos serviços desses guichês também
exibem a distribuição exponencial com taxas iguais a l . Os usuários que acessam
o sistema surgem segundo o modelo de Poisson. O estado é caracterizado pelo
número de usuários presentes, 0 , 1, 2 , . Nessas condições, o sistema se enqua-
dra como um processo de nascimento e morte, podendo ser descrito como uma
cadeia de Markov inf inita de tempo contínuo. Desenhe o diagrama de transição
dessa cadeia e escreva as equações de Kolmogorov para o regime estacionário.
Supondo-se que l < m, com base em séries convergentes, prove que a expressão
para a probabilidade estacionária v0 em função do quociente r = l m é
v0 = 1- r ,

em que, v0 é a probabilidade de encontrar o sistema vazio, ou seja, livre de


usuários. Neste exercício, será preciso usar o resultado da série:

1
∑i=0
x i = x0 + x1 + x 2 +  =
1− x
, se 0 < x < 1 .

– 246 –
VI
Sistemas de Filas de Espera

E  ste capítulo aborda sistemas de f ilas de espera com chegadas e atendi-


mentos tipo markoviano. Sugerimos a leitura de Hillier & Lieberman
(1995), Jain, (1991), Nelson, R. (1995), Shamblin & Setevens Jr. (1989) e Fogliat-
ti & Mattos (2007).
Uma f ila de espera ocorre sempre que a demanda por um serviço excede,
em um dado instante, a capacidade do sistema para prover o serviço. Um sistema
de f ila de espera é um conceito mais geral do que simplesmente pessoas­aguar-
dando em f ila para receberem atendimento em um estabelecimento de prestação
de serviços. Podemos citar alguns exemplos de sistemas de f ilas de espera, como:
atendimento de chamadas telefônicas de uma companhia, o sistema de atendi-
mento ao consumidor – normalmente designado pela sigla SAC –, processos
esperando, em f ila, por execução em uma rede de computadores e aviões que
chegam e solicitam permissão para aterrissagem em um aeroporto, entre outros.
Em análises de sistemas de f ilas de espera, normalmente se deseja ob-
ter informações objetivas sobre a capacidade de serviço que se deve dispo-
nibilizar aos usuários e os custos operacionais envolvidos desde a espera até
o atendimento. Se, por um lado, a capacidade de serviço for insuf iciente,
tempos de espera excessivos podem implicar custos adicionais por perda
de consumidores e ociosidade da parte de quem espera, por outro, oferecer
muita capacidade de serviço requer investimentos e pode levar ociosidade
ao sistema de atendimento. A teoria de f ilas de espera trabalha, portanto,
com objetivos conf  litantes. Dado um modelo, a principal motivação para
seu estudo está na busca de soluções que representem um ponto de equilí-
brio entre os conf  litos.

– 247 –
Há um grande número de modelos matemáticos de f ilas de espera que
permite descrever diferentes situações observadas na prática. Existem mode-
los elementares para descrever sistemas de f ilas com um único atendente, em
que o número máximo de consumidores permitido no sistema é ilimitado,
assim como também aqueles sistemas que são tão complexos que se mostram
mais adequados para solução por meio de simulação computacional, em vez
da utilização de modelos analíticos.
Normalmente, quando se estudam sistemas de f ilas, procuram-se res-
postas sob a forma de medidas objetivas, capazes de orientar o projetista do
sistema. As grandezas mais comuns são:
– o tempo médio que um usuário aguarda pelo atendimento;
– o grau de ociosidade do sistema de atendimento;
– o número médio de usuários no sistema;
– o número médio de usuários na f ila.
Uma característica normalmente exibida pelos sistemas de f ilas mais
complexos é a incerteza dos dados de entrada. Por exemplo, na maioria dos
sistemas de f ilas, não é possível precisar exatamente em que instante um
usuário irá acessar o sistema, nem tampouco quanto tempo vai durar o seu
atendimento. Um sistema desse tipo é dito de natureza estocástica, e o seu
funcionamento é descrito como um processo estocástico.
Com o objetivo de descrever os principais modelos analíticos de sistemas
de f ilas de espera, apresentamos, a seguir, uma notação universalmente aceita:
a notação de Kendall-Lee. Também serão apresentados elementos básicos de
sistemas de f ilas.

6.1 Elementos básicos de sistemas de f ilas e notação de Kendall-Lee

Em qualquer sistema de f ilas, podemos identif icar os seguintes elementos:


– a f ila propriamente dita, que é constituída por aqueles indivíduos que não
são atendidos assim que chegam e podem esperar pelo serviço;
– o servidor que tem a função de prover o serviço ao usuário, que pode ou
não seguir uma sistemática de atendimento, identif icando-se aí o atendente
e o mecanismo de serviço;
– a fonte de usuários do sistema de f ilas.
A f igura 6.1 ilustra os elementos básicos de um sistema de f ilas de espera.

– 248 –
Figura 6.1: Elementos básicos de um sistema de f ilas

A fonte de usuários do sistema de f ilas é composta pelos consumidores


potenciais do serviço oferecido pelo sistema. Uma característica da fonte de
usuários é o seu tamanho. Por exemplo, o escritório de uma seguradora de
veículos oferece atendimento aos seus segurados em uma cidade. O número
de usuários que demandam pelos serviços oferecidos pelo escritório é um
pequeno subconjunto da população da cidade. Não devemos confundir o
tamanho da fonte de usuários com a capacidade do sistema de f ila. A capaci-
dade do sistema está associada ao número máximo de usuários que o sistema
pode comportar em um dado período de seu funcionamento. Em uma mo-
delagem simplif icada, geralmente se supõe que a fonte e a capacidade do sis-
tema sejam ilimitadas, e a razão para isso é que as expressões resultam mais
simples e conduzem a cálculos mais fáceis. Todavia, pode-se ter um modelo
em que a capacidade do sistema é limitada, e a fonte de usuários, mesmo não
sendo inf inita, mas, por ter um tamanho muito grande, é suposta inf inita.
Nesse último caso, as expressões serão mais complexas que na abordagem
simplif icada.
O comportamento estatístico dos consumidores para acessarem o siste-
ma de f ilas pode ser descrito por uma distribuição de probabilidades empírica
que pode ser representada por um modelo analítico conhecido de probabili-
dade. O modelo de Poisson é comumente usado para descrever a forma como
os consumidores são gerados pela fonte e, para def inir completamente essa
distribuição, é necessário ter apenas a taxa média de chegadas.
Um aspecto importante associado à f ila é a ordem em que os usuários
são selecionados para o atendimento. Isto é referido como disciplina da f ila.
Por exemplo, o critério adotado pode ser “primeiro a chegar, primeiro a ser
atendido”, ou alguma outra ordem.
O tempo transcorrido desde o começo do atendimento a um consumidor
até a sua conclusão é o tempo de serviço. Para descrever o atendimento, deve-

– 249 –
mos especif icar uma distribuição de probabilidade para os tempos de serviço.
A distribuição mais comumente especif icada para tempos de serviço é a dis-
tribuição exponencial.
Diante do exposto, percebemos que pode haver uma grande variedade
de combinações de características de sistemas de f ilas, e que cada uma dessas
combinações implicará um modelo diferente. Daí, surge a notação atribuída a
Kendall e a Lee. O uso dessa notação tem a f inalidade de descrever os sistemas
de f ilas de espera de modo claro e objetivo.
A notação de Kendall-Lee consiste em rótulos dispostos em forma se-
quencial, como mostra a f igura 6.2, de modo que cada rótulo possui um sig-
nif icado.

– / – / – / – / – / –
Distribuição Distribuição Número de Disciplina Número Tamanho
dos tempos dos tempos servidores da f ila máximo de da fonte de
entre de serviço usuários no usuários
chegadas sistema

Figura 6.2: Notação de Kendall-Lee

Nos dois primeiros campos, são descritos o processo de chegada e o


modelo estatístico do atendimento. As letras mais usadas são as seguintes:
M, G e E. A letra M é uma alusão ao termo “markoviano” e implica dis-
tribuição exponencial para tempos entre chegadas e tempos de serviço, e
distribuição de Poisson para o número de usuários que emergem da fonte
e da f ila. Nesse caso em particular, podemos associar a distribuição de
tempos a taxas de transição e o número de usuários aos estados, correspon-
dendo a um processo de Markov de tempo contínuo, conforme vimos no
capítulo anterior. Assim, M no primeiro campo signif ica que o processo
de chegada é do tipo Poisson, e os tempos entre chegadas têm distribuição
exponencial. M no segundo campo, quer dizer que o atendimento segue o
modelo de Poisson, e os tempos de atendimento obedecem à distribuição
exponencial. As demais letras têm os seguintes signif icados: G é uma dis-
tribuição genérica e E é a distribuição de Erlang. Por exemplo, um sistema
de f ilas do tipo M / G / 1 / FIFO / ∞ / ∞ tem distribuição exponencial dos
tempos entre chegadas, os tempos de atendimento possuem distribuição
genérica, o sistema possui um atendente, a disciplina da f ila é FIFO (f irst-

– 250 –
in-f irst-out), que signif ica “primeiro a chegar, primeiro a ser atendido”, a
capacidade do sistema é inf inita, e a fonte de usuários é ilimitada. Neste
caso podemos denotá-lo simplesmente M / G / 1, porque, de uma maneira
geral, quando a disciplina da f ila for FIFO, a capacidade do sistema for
inf inita e a fonte de usuários for ilimitada, podemos omitir os três últimos
campos.
A disciplina da f ila, além de FIFO, pode ser LIFO, que signif ica “último
a chegar, primeiro a ser atendido”, ou PRI, se, para o atendimento, é observa-
da alguma prioridade.
Na próxima seção, serão estudados os principais conceitos e parâmetros
de sistemas de f ilas. Posteriormente, serão obtidas expressões analíticas de cál-
culo de desempenho de sistemas de f ilas, iniciando-se o estudo pelo modelo
mais simples, que é o M / M / 1.

6.2 Conceitos básicos e parâmetros de sistemas de f ilas

Conhecer a terminologia empregada nos estudos de sistemas de f ilas é o


primeiro passo no estudo dessa área da Pesquisa Operacional. Serão def inidos
a seguir, alguns termos básicos sobre f ilas de espera.

Def inição 6.1 (Cliente): Elemento que chega e requer atendimento. Os clien-


tes podem ser requisições de impressões em uma rede de computadores, tor-
cedores que vão comprar ingressos, cartas que chegam e devem ser entregues,
carros estacionados etc.

Alguns sinônimos são usados para o termo cliente, tais como consumi-
dor e usuário.

Def inição 6.2 (Canal de atendimento): Processo ou pessoa que realiza o aten-


dimento do cliente. É comum usar o termo “atendente” para referir ao canal
de atendimento. Os canais de atendimento podem ser: a impressora que exe-
cuta as requisições de impressões em uma rede de computadores, os vendedo-
res de ingressos, os carteiros, o estacionamento etc.

Quanto à capacidade do sistema e ao número de atendentes, os sistemas


de f ilas podem ser classif icados como ilustra o esquema da f igura 6.3.

– 251 –
Figura 6.3: Esquema com uma classif icação de sistemas de f ilas

Os usuários ou clientes chegam ao sistema a uma razão, que é determi-


nada pela quantidade de usuários dividida pelo intervalo de tempo de obser-
vação. Essa taxa, designada “taxa de chegada”, é representada pela letra l e é
calculada conforme (6.1):

número de usuários que chegam


l= . (6.1)
intervalo de tempo

A frequência ou a velocidade em que os usuários são atendidos ou rece-


bem o serviço é denominada de taxa de atendimento. Essa taxa é representada
pela letra m e é calculada pela expressão (6.2):

número de usuários atendidos


m= . (6.2)
intervalo de tempo

Para tornar mais claras as def inições dos parâmetros l e , propomos a


resolução do seguinte exemplo:

Exemplo 6.1: Em um intervalo de 5 minutos, 6 clientes chegam a um posto de


atendimento. Qual é a taxa de chegada l? Se, no atendimento, em média, um
usuário demanda 40 segundos, qual é a taxa de atendimento?

– 252 –
Aplicando-se a expressão (6.1) para calcular l, obtemos:

6 clientes
l= = 1, 2 clientes minuto .
5 minutos

Para determinarmos a taxa de atendimento, podemos usar o seguinte ra-


ciocínio: se, em média, um atendimento é completado em 40 segundos, quan-
tos clientes serão atendidos no tempo de um minuto?

tempo clientes atendidos


40 ® 1
60 ® x
60
40´ x = 60´1 Þ x = = 1, 5 .
40
Portanto, a taxa de atendimento é m = 1, 5 clientes minuto .

Os problemas de f ilas de espera consistem em ajustar adequadamente


a taxa de atendimento do processo com a taxa de chegada do trabalho a ser
feito. Do ponto de vista do projetista, isso é feito por meio do correto dimen-
sionamento do número de servidores do sistema de f ilas. Para se entender
melhor os parâmetros l e , suponham-se as seguintes situações extremas
para um sistema com um único atendente:

• Um sistema de f ila e atendimento possui uma taxa de chegada l maior do


que a taxa de atendimento ;
• Outro sistema raramente recebe clientes e, quando um cliente aparece, é
imediatamente atendido. Neste caso, a taxa de chegada é muito baixa e
menor do que a taxa de atendimento.

As situações imaginadas merecem alguns comentários. A primeira situa­


ção não pode, em princípio, ser resolvida da forma como está: sendo l > m,
não há sistema de atendimento capaz de absorver a demanda, e a f ila tende
a crescer indef inidamente. Uma solução possível é instalar mais guichês de
atendimento, e, dessa forma, adequar a taxa de atendimento às condições da
taxa de chegada (isto é, tornar l < m ). Outra solução, embora ruim para o
cliente, mas aparentemente mais econômica, é limitar o número de clientes

– 253 –
que chegam ao sistema. Quanto ao sistema que recebe poucos clientes, segun-
da situação, que são rapidamente atendidos, podemos supor que não haverá
formação de f ilas. Esse é, com certeza, um sistema mal dimensionado. Neste
caso, naturalmente, algo deve ser feito para adequar l e m .
O parâmetro l é um dado muito importante nas análises de sistemas
de f ilas. Por essa razão, merece discussão mais aprofundada. Inicialmente
suponhamos a chegada de, por exemplo, cinco usuários a um sistema de
f ilas hipotético. Vamos supor também que foram anotados os instantes de
chegada dos usuários, denotados por ti , com i = 1, 2, 3, 4 e 5, medidos a
partir do instante zero. Esses tempos são marcados no eixo dos tempos,
como ilustra a f igura 6.4.

tempo

Figura 6.4: Instantes de chegada de usuários a um sistema de f ilas

Identif icamos na f igura 6.4 os tempos entre as chegadas consecutivas,


de modo que, para cada usuário, é possível associar um único desses tempos.
Nesse exemplo, associamos os tempos transcorridos entre a chegada de cada
usuário e a chegada do seu subsequente, na seguinte ordem:

1o usuário: T1 = t1 – 0
2o usuário: T2 = t2 – t1
3o usuário: T3 = t3 – t2
4o usuário: T4 = t4 – t3
5o usuário: T5 = t5 – t4.

Os tempos decorridos entre chegadas são representados pela letra T


(maiúscula), para evitar confusão de notação, conforme ilustra a figura 6.5.

– 254 –
Figura 6.5: Tempos entre as chegadas de usuários a um sistema de f ilas

Se aplicarmos aos dados deste exemplo a expressão (6.1), calculamos o


parâmetro l dividindo o número de usuários pelo intervalo de tempo:

número de usuários que chegam 5


l= Þl= .
intervalo de tempo T1 + T2 + T3 + T4 + T5

Ora, partindo-se da análise da última expressão, é imediata a consta-


tação de que a taxa de chegada l é o inverso da média dos tempos entre
chegadas.
Podemos expressar formalmente essa conclusão por meio da expressão
(6.3), em que TMC é o tempo médio entre chegadas – que é o mesmo que a
média dos tempos entre chegadas –,

1 (6.3)
l= .
TMC
Uma expressão análoga à expressão (6.3) relaciona a taxa de atendimen-
to m e a média dos tempos de serviço, TMS ,

1 (6.4)
m= .
TMS
Diante do exposto, a segunda parte do exemplo 6.1 poderia ser resolvida
de forma direta, ou seja, pela aplicação da expressão (6.4), assim,

1
TMS = 40 segundos Þ m = ,
40
que, ao ser convertida para atendimentos por minuto, assume o seguinte
valor:

– 255 –
60
m= = 1, 5 clientes minuto .
40

É interessante notar quanto aos parâmetros l e , que o parâmetro l


em geral não permite qualquer controle por parte do projetista do sistema de
f ilas, uma vez que é um valor determinado pela fonte de usuários. Já o parâ-
metro , embora fortemente dependente da natureza e do volume do serviço
demandado pelo usuário, pode ser de algum modo inf  luenciado pelo projetis-
ta do sistema de f ilas; por exemplo, em função da sistemática de atendimento
e da habilidade do atendente para realizar o serviço podemos manipular o
valor de .
Depois de levantados os dados l e  de um determinado sistema de
f ilas, é preciso obter grandezas que representem medidas objetivas da situa-
ção operacional da f ila em regime estacionário. Tais grandezas são designadas
medidas de efetividade dos sistemas de f ilas.

6.3 Medidas de efetividade dos sistemas de f ilas

As mais primitivas medidas de efetividade são as esperanças matemá-


ticas da variável aleatória tempo que os usuários permanecem na f ila e da
variável aleatória tempo que os usuários permanecem no sistema.
Os símbolos T, Q e S representam as variáveis aleatórias “tempo no sis-
tema”, “tempo na f ila” e “tempo de serviço”, respectivamente, para um usuá­
rio qualquer. Os respectivos valores esperados dessas variáveis aleatórias são
E (T ) , E ( Q ) e E ( S) .
O tempo de espera é o tempo gasto na f ila antes de receber o serviço
e, após o qual, o usuário é imediatamente atendido. Assim, o tempo de per-
manência no sistema – sistema é entendido aqui como um processo cliente
e canal de atendimento – é calculado pela soma indicada na expressão (6.5):

E ( T ) = E ( Q ) + E ( S) . (6.5)

A esperança matemática do tempo de serviço, E( S), é igual a 1 m , uma


vez que esses tempos são exponencialmente distribuídos – vide expressão
(4.26), observando que β é a taxa de atendimento. Além disso, E(Q) é desig-
nado por Wq – do inglês waiting time in the queue –, e E(T ), pela letra W. A
expressão (6.5) pode então ser reescrita como a seguir:

– 256 –
1.
W = Wq + (6.6)
µ
É importante frisar que a expressão (6.6) é geral; ou seja, sua validade
independe do modelo de f ilas estudado e de suas características intrínsecas.
A medida de efetividade referente ao número médio de usuários no sis-
tema é designada como L – do inglês length. Se n for o número de usuários no
sistema e Pn, a probabilidade de que existam n usuários no sistema, dado que
a variável aleatória é discreta, a esperança matemática E( X = n) é calculada
conforme (4.4) pela expressão (6.7):

¥
E( X = n) = L = å nPn . (6.7)
n=0

Seja s o número de atendentes. O número médio de usuários na f ila é


designado por Lq – do inglês, length of the queue – e é def inido como a espe-
rança matemática, E( X = nq ), obtida pela expressão (6.8):

¥
E( X = nq ) = Lq = å ( n - s) Pn . (6.8)
n= s

As medidas de efetividade, W , Wq, L e Lq , formam uma espécie de


f igura de mérito do desempenho de um sistema de f ilas e, a partir de seus
valores, é possível emitir um parecer consubstanciado sobre a condição ope-
racional do sistema. Por exemplo, a partir dessas medidas, podemos obter um
indicativo da necessidade ou não de ajustar o sistema de atendimento, com
ampliações ou cortes de custos.
Há relações matemáticas entre as medidas de efetividade de tempo e as
medidas de efetividade do número de usuários. Tais relações foram demons-
tradas por J. D. C. Little (1961).

6.3.1 Fórmula de Little

Para qualquer processo de f ilas em regime estacionário, a igualdade (6.9),


–                                    
L = lW (6.9)

é conhecida por fórmula de Little.

– 257 –
De maneira análoga, temos uma relação entre Lq e Wq, nos seguintes
termos:

Lq = lWq , (6.10)

em que l é a taxa média de chegada.
Para o enésimo estado, a taxa de chegada é ln, sendo a probabilidade
correspondente dada por Pn. A taxa de chegada é uma variável aleatória do
processo estocástico. Dessa forma, a taxa média de chegada a longo prazo


l deve ser calculada como o valor esperado, ou seja, l = ∑ ln Pn , sendo Pn
n=0
a proporção do tempo em que o processo está no estado n. Nos casos em que
as taxas de chegada l0, l1, ..., ln forem constantes e iguais a l e, além disso,


∑n=0
Pn = 1 , teremos que l = l.
As expressões (6.6), (6.9) e (6.10) são extremamente importantes por-
que relacionam as quatro quantidades fundamentais, que são determinadas
na medida em que qualquer uma delas é encontrada. Além disso, essas rela-
ções são genéricas, ou seja, são válidas para todo tipo de modelo de sistemas
de f ila. Ao combinarmos as três equações obtemos uma quarta equação:

λ
L = Lq + . (6.11)
µ

De posse dos conceitos básicos, das def inições das medidas de efetivida-


de e das relações fundamentais, podemos desenvolver e estudar modelos de
f ilas de espera. Iniciaremos o estudo pelos modelos estocásticos de f ilas mais
simples e depois passaremos à análise de modelos mais complexos.
Na próxima seção, serão estudados os sistemas de f ilas em que as che-
gadas e os atendimentos ocorrem segundo o modelo estocástico de Poisson, e
tanto os tempos entre chegadas quanto os tempos de atendimento seguem a
distribuição exponencial.

6.4 Sistemas de f ilas com chegadas e atendimentos do tipo markoviano

A f im de tornar didático o estudo a seguir, esta seção será dividida nos
seguintes tópicos:

– 258 –
– sistemas de f ilas M / M / 1, que têm apenas um atendente (ou seja, um ser-
vidor ou um canal de atendimento) e capacidade inf inita;
– sistemas de f ilas M / M / s, que têm s atendentes e capacidade inf inita;
– sistemas de f ilas M / M / 1 / C, que têm um atendente e capacidade f inita C ;
– sistemas de f ilas M / M / s / C, que têm s atendentes e capacidade f inita C .

O segundo e o quarto tópico são designados como sistemas multicanal.


Em todos os tópicos que serão abordados, a disciplina da f ila – ou das f ilas – é
FIFO, e a fonte de usuários possui um número ilimitado de usuários poten-
ciais. Em um sistema com capacidade f inita C, o usuário que chegar e encon-
trar o sistema em sua capacidade máxima é automaticamente descartado.

6.4.1 Sistema de f ilas M / M / 1

Seja Xt o número de usuários no sistema no instante t . Suponhamos


l < m , e taxas l e m constantes. Dado que o tempo entre as chegadas e o
tempo de atendimento são variáveis aleatórias com distribuição exponencial,
o processo cujo estado é caracterizado por Xt é um processo de Markov.
Portanto, podemos desenvolver o estudo de sistemas de f ilas M / M / 1
com base nos procedimentos apresentados na seção 5.4.1. Iniciaremos o estu-
do a partir da representação do sistema de f ilas pelo diagrama de transição da
f igura 6.6.

... ...

Figura 6.6: Diagrama de transição de um sistema de f ilas do tipo M / M / 1

A interpretação dada para a f  igura 6.6 é a seguinte: cada esta-


do é caracterizado pelo número de usuários no sistema, que pode ser 0, 1,
, n -1, n, n + 1,  . As chegadas de clientes e os atendimentos são as tran-
sições entre os estados. A taxa de transição de um estado ao estado adjacente,
gij , para estados vizinhos i e j, representa a taxa de chegada, se i < j , e a taxa
de atendimento, se i > j .

– 259 –
Em particular, o sistema de f ilas M / M / 1 pode ser visualizado pela f igu-
ra 6.6, observando-se que M é “markoviano” e 1 trata-se de um atendente, que
pode ser notado pela taxa m. Processos de Markov como o que está ilustrado
no diagrama da f igura 6.6 são conhecidos como processos de ‘nascimento e
morte’.
Primeiramente, procuraremos obter uma expressão para a probabilida-
de de serem encontrados n usuários no sistema, designados por Pn.
Partindo da lei de formação da matriz estocástica E, conforme a expres-
são (5.27),

elemento da posição ( i, j ) = gij , i ¹ j (arco orientado de i para j),

elemento da posição ( j, j ) = 1- å gij ,


i¹ j

e analisando o diagrama da f igura 6.6, identif icamos os seguintes elementos


diferentes de zero das posições fora da diagonal:

e01 = l
e10 = m
...
en-1, n = l
en, n-1 = m
en, n+1 = l
en+1, n = m
... .
Nas posições da diagonal principal, obtemos os seguintes elementos:

e00 = 1- l
e11 = 1- (l + m)
...
en-1, n-1 = 1- (l + m)
en, n = 1- (l + m)
en+1, n+1 = 1- (l + m)
... .

– 260 –
Finalmente, o sistema de equações para a obtenção das probabilidades
estacionárias f ica da seguinte forma:
v = vE ,
[ v0 v1  vn-1 vn vn+1 ] = [ v0 v1  vn-1 vn vn+1 ] E,

e as probabilidades limites, v0, v1, ..., vn–1, vn, vn+1,... , são as probabilidades dos
estados, P0 , P1 ,, Pn-1 , Pn , Pn+1 ,,
[ P0 P1  Pn-1 Pn Pn+1 ] = [ P0 P1  Pn-1 Pn Pn+1 ] E ,
cuja matriz estocástica E com um número inf inito de estados é:

00 1 1 . . . n-
n–1
1 n n 1 
n +n+1 ...
0 é1- l l  0 0 0 ù
ê ú
1 ê m 1- (l + m)  0 0 0 ú
ê ú
ê
 ê       úú
ê
E = n -1 ê 0 0  1- (l + m) l 0 úú .
ê
n ê 0 0  m 1- (l + m) l úú
ê ú
n +1 ê 0 0  0 m 1- (l + m) ú
ê ú
 ëê       ûú
A equação do estado zero é a seguinte:

P0 = (1- l ) P0 + mP1 ,

l
que nos permite escrever P1 = P0 .
m
Para n³ 1 , a enésima equação é dada por:

Pn = l Pn-1 + [1- (l + m)] Pn + mPn+1 .

l
Partindo de P1 = P0 e da enésima equação para n = 1 calculamos P2 :
m
2
æl ö
P2 = çç ÷÷÷ P0 .
çè m ÷ø

– 261 –
Continuamos com esse procedimento e obtemos a solução procurada, Pn,
n
æl ö
Pn = çç ÷÷÷ P0 para n = 1, 2,  , (6.12)
çè m ÷ø
em que, Pn é a probabilidade do estado n ; ou seja, a probabilidade de se en-
contrar exatamente n usuários no sistema.
A expressão para o cálculo de P0 é obtida usando-se o fato de que, para
¥
o modelo M / M / 1, å P =1 :
n=0
n

1
P0 = . (6.13)
¥ æ ön
l
çç ÷÷
å ç ÷÷
n=0 è m ø

l
Considerando a hipótese < 1 , a série do denominador de (6.13)
1 m
converge para . Consequentemente obtemos uma expressão sucinta
1- l m
para a probabilidade do estado zero; isto é,
P0 = 1- l m . (6.14)

P0 é a probabilidade de se encontrar o sistema ocioso. Portanto, da aná-


lise da expressão (6.14), concluímos que l m é a probabilidade de encontrar o
sistema ocupado. A razão l m é simbolizada pela letra grega r .
A expressão da probabilidade de n usuários no sistema f ica então da
forma indicada pela expressão (6.15):
Pn = r n (1- r ) para n = 1, 2,  . (6.15)
Dessa forma, concluímos a determinação da probabilidade de se encon-
trar n usuários no sistema, conforme nos propusemos no início desta seção.
Cabe ressaltar aqui o signif icado do parâmetro r . Esse parâmetro admi-
te algumas interpretações de grande utilidade nas análises, a saber:
– r é a proporção do tempo em que o sistema está ocupado ( r = 1- P0 );
– r é a intensidade de tráfego ou o fator de utilização do sistema.
No contexto de aplicação de r como intensidade de tráfego, a unidade
usada é o erlang, que é uma unidade usual em sistemas de f ilas em geral.
Vamos resolver um exemplo para tornar mais claros os conceitos desen-
volvidos.

– 262 –
Exemplo 6.2: Um pronto-socorro médico presta serviços de atendimento a
acidentados durante as 24 horas do dia. Em média, em um dia típico, 42 pa-
cientes recorrem aleatoriamente ao atendimento desse pronto-socorro. Um
paciente requer em média 25 minutos para receber os primeiros socorros, ser-
viço que é feito por uma única equipe de prof issionais. Suponha que o modelo
é de uma f ila M / M / 1 e efetue os seguintes cálculos:
a) a taxa média de chegada;
b) a taxa média de atendimento;
c) a probabilidade de que, em um intervalo de tempo de 1,5 horas, 2 pacien-
tes cheguem ao pronto-socorro;
d) a probabilidade de que um paciente selecionado aleatoriamente encontre
o pronto-socorro desocupado;
e) o percentual do tempo em que o pronto-socorro está ocupado;
f) se a única sala de espera do pronto-socorro comporta apenas um paciente,
qual é a probabilidade de algum paciente ter de esperar no corredor pelo
atendimento?

As taxas l e m são determinadas aplicando-se os procedimentos da se-


ção 6.2, isto é,
42
l= = 1,75 pacientes hora ,
24
1
m = = 0,04pacientes minuto Þ m = 0,04´60 = 2, 4 pacientes hora .
25

Como o modelo de chegada de pacientes é uma distribuição de Poisson


com taxa média igual a l, e o intervalo de tempo é conhecido, vamos aplicar
a fórmula (4.14)
 x -
P ( X = x) = e , x Î Z+ ,
x!

para  = lDt = 1,75´1, 5 = 2,625 . Fazendo x = 2 , temos a seguinte proba-


bilidade:

2,6252 -2,625
P( X = 2) = e ⇒ P(X=2) ≅ 0,2496.
2!

– 263 –
Então, em um intervalo de tempo de uma hora e meia, há uma probabi-
lidade de 24,96% de que cheguem dois pacientes ao pronto-socorro.
A probabilidade de um paciente encontrar o pronto-socorro desocupa-
do é dada por P0, que é a probabilidade do sistema vazio. Aplicamos então a
fórmula (6.14),
1,75
P0 = 1- l m Þ P0 = 1- @ 0, 2708 .
2, 4

O percentual do tempo em que o pronto-socorro está ocupado é dado por ,

1,75
r = lm Þr = @ 0,7292 .
2, 4

Isto signif ica que cerca de 73% do tempo – no caso, 24 horas, implica


17 horas e meia – o pronto-socorro está ocupado. O parâmetro  é também a
intensidade de tráfego, que é expressa como 0,7292 erlangs.
Finalmente, se há apenas uma sala de espera, e a sala comporta um pa-
ciente e outro paciente está sob os cuidados da equipe, então se o número
de pacientes no sistema for superior a dois teremos pacientes no corredor do
pronto-socorro. Portanto, precisamos calcular a probabilidade de encontrar
mais de dois pacientes no sistema, isto é:

Pn>2 = 1- ( P0 + P1 + P2 ) .

Uma vez que conhecemos o valor de P0 pelo item (d) e o valor de r pelo
item (e), basta aplicarmos a fórmula (6.15), Pn = r n (1- r ) para n = 1, 2 . Segue-
se que
Pn>2 = 1- (0, 2708 + 0,1975 + 0,1440) Þ Pn>2 = 0, 3877 .

6.4.1.1 Medidas de efetividade do modelo de f ilas M / M / 1

a) Número esperado de usuários no sistema, L:

Para determinarmos o número esperado de usuários em um sistema L,


recorremos à expressão (6.7), que def ine L, e também à expressão (6.15):

– 264 –
¥ ¥ ¥
L = å nPn = å nr n (1- r ) Þ L = (1- r )å nr n .
n=0 n=0 n=0

O somatório é identif icado como uma conhecida série convergente, uma vez


que r < 1 . Consequentemente, o número esperado de usuários no sistema L
é dado pela expressão (6.16):

r
L= . (6.16)
1- r

b) Tempo médio de permanência do usuário no sistema, W:

Usamos a fórmula de Little (6.9) e obtemos a seguinte expressão para o


cálculo de W:

L r
W= ÞW = . (6.17)
l l(1- r )

c) Tempo médio de espera na f ila, Wq :

Para calcular Wq , podemos usar a expressão (6.6) combinada com a fór-


mula para o cálculo de W, do seguinte modo:

1 r 1 r r
Wq = W - = - = - ,
m l(1- r ) m l(1- r ) l

r r r - (1- r )r
Wq = - = ,
l(1- r ) l l(1- r )

r2
Wq = . (6.18)
l(1- r )

– 265 –
d) Número médio de usuários na f ila, Lq :

Calculamos esse número recorrendo à expressão (6.8) para s = 1 e tam-


bém à expressão (6.15),

¥
Lq = å ( n -1) Pn
n=1
¥ ¥
= å nPn - å Pn
n=1 n=1
¥ ¥
= (1- r )å nr n - (1- r )å r n
n=1 n=1

r r
= (1- r ) - (1- r ) ,
(1- r ) 2
1- r
r r (1- r )
= - .
1- r 1- r

O número médio de usuários na f ila é calculado pela expressão (6.19):

r2
Lq = . (6.19)
1- r

A seguir, apresentamos a resolução de um exemplo com a aplicação das


grandezas cujas expressões foram obtidas.
Exemplo 6.3: Um centro de processamento de dados (CPD) é operado por um
processador. As demandas do processo ao sistema seguem uma distribuição
de Poisson, com uma taxa média de chegada de 12 processos por minuto. Os
processos são atendidos em base FIFO, e os processos que chegam e encon-
tram o processador ocupado esperam pelo atendimento. O tempo gasto para
executar um processo é estimado como exponencialmente distribuído, com
uma média de atendimento de 3 segundos. Determine:

a) o número de processos no sistema;


b) o tamanho médio da f ila;
c) o tempo esperado que um processo deve aguardar na f ila;
d) o tempo médio que um processo deve f icar no processador (CPU).

– 266 –
Primeiramente, vamos calcular os parâmetros do sistema a partir dos
dados de entrada. A taxa de chegada é l = 12 processos minuto . O tempo médio de
1
atendimento é , que foi dado como 3 segundos, portanto, a taxa de aten-
m
1
dimento é m = processos segundo . A taxa l está em processos minuto e a taxa m está
3
expressa em processos segundo . É preciso tornar coerentes as unidades dessas taxas.

Vamos exprimir l em processos


segundo , tal como m . Assim,
1
l= processos
segundo
5
e
1
m= processos
segundo
3
Segue-se que o valor de r é r = l m = 3 5 .

Concluída a fase preparatória dos dados, estamos prontos para aplicar as


fórmulas e solucionar os itens pedidos, uma vez que r < 1, conforme a nossa
hipótese.
O número médio de usuários no sistema é calculado pela aplicação de
(6.16):
r 35
L= Þ L= = 3 2 processos.
1- r 1- 3 5
O tamanho médio da f ila é dado pela expressão (6.19),
r2 ( 3 )2 9
Lq = Þ Lq = 5 = Þ Lq @ 0, 9 processos.
1- r 1- 5 10
3

O tempo esperado que um cliente deve aguardar na f ila é dado pela


expressão (6.18),
ρ2 ( 3 5 )2 9
Wq = ⇒ Wq = = ⇒ Wq = 4, 5 segundos.
λ(1− ρ ) 1 (1− 3 )
5 5 2
O tempo médio que um processo permanece no processador é o tempo
médio do sistema. Vamos aplicar a expressão (6.17),

ρ 3 15
W= ⇒ W= 5
= ⇒ W = 7, 5 segundos.
λ(1− ρ ) 1
5 (1− 5 ) 3 2

– 267 –
6.4.2 Sistema de f ilas M / M / s

Como na seção anterior, obteremos uma expressão para a probabilidade


de se encontrarem exatamente n usuários no sistema Pn . Para tal, usaremos a
modelagem do sistema de f ilas multicanal como um processo de Markov de
nascimento e morte, cujo diagrama de transição está ilustrado na f igura 6.7.

... ...

Figura 6.7: Diagrama de transição de um sistema de f ilas do tipo M / M / s

Com a suposição de que a taxa média de atendimento de cada servidor


é m, a taxa média global de atendimento de n servidores é nm . Quando todos
os servidores estiverem ocupados, ou seja, quando n ³ s , a taxa média global
de atendimento é sm .
Um procedimento alternativo àquele utilizado no desenvolvimento
apresentado na seção 6.4.1 para obter Pn consiste em escrever as equações de
Kolmogorov para os jotaésimos estados – vide equação (5.23) – do diagrama
da f igura 6.7. Para facilitar o emprego desse método, basta escrever as equa-
ções de balanço para o processo de nascimento e morte, como está indicado a
seguir:

Estado Taxa de saída = Taxa de entrada


0 l P0 = mP1 ,
1 (l + m) P1 = l P0 + 2mP2 ,
2 (l + 2m) P2 = l P1 + 3mP3 ,
... ...
s-1 [l + ( s -1)m] Ps-1 = l Ps-2 + smPs ,
s
(l + sm) Ps = l Ps-1 + smPs+1 ,
n³ s (l + sm) Pn = l Pn-1 + smPn+1 .

– 268 –
A partir das equações escritas anteriormente, para n £ s , temos que:

( l m)
n

Pn = P0 , para n = 1, 2, , s (6.20)
n!
e, para n ³ s , temos que:

( l m)
s

Pn = P0 . (6.21)
s! s n- s
¥
Usamos do fato que å P = 1 e das relações (6.20) e (6.21), para obter-
n=0
n

mos a probabilidade de se encontrar o sistema vazio, P0 :

1
P0 = ,
é s-1 ( l )n ù ( l
)
s
ê ú
ê å n! ú + s!(1- r )
m m
(6.22)
ëê n=0 ûú

em que r = l sm , que é menor do que a unidade.


Precisamos obter uma medida de efetividade para que todas as outras se-
jam encontradas. Optamos por aplicar a expressão (6.8), que def ine Lq :

( l m)
s
r
Lq = P0 . (6.23)
s!(1- r )2

O número médio de usuários no sistema é calculado pela expressão (6.24):

( l m)
s
r l
L= P0 + . (6.24)
s!(1- r ) 2
m

O tempo médio de permanência do usuário no sistema é calculado pela


expressão (6.25):
( l m)
s
1
W= P0 + . (6.25)
sm s!(1- r ) 2
m
– 269 –
O tempo médio de permanência do usuário no sistema é calculado pela
expressão (6.26):

( l m)
s

Wq = P0 . (6.26)
sm s!(1- r )2

Se ao chegar ao sistema um usuário encontrar pelo menos s usuários,


concluirá que o sistema está ocupado. A probabilidade de se encontrar o sis-
tema ocupado é o somatório das probabilidades para se encontrar pelo menos
n usuários no sistema,

( l m)
s
¥ ¥
Pn³ s = å Pn = å P0 ,
n= s n= s s! s n- s

que resulta na expressão (6.27):

( l m)
s

Pn³ s = P0 . (6.27)
s!(1- r )

Em outras palavras, Pn³ s é a probabilidade de que uma chegada ao sis-


tema tenha de esperar.
Iremos resolver a seguir um exemplo para consolidar os conceitos desen-
volvidos nesta seção.

Exemplo 6.4: Um centro de distribuição de mercadorias distribui seus produ-


tos por intermédio de caminhões que são carregados em dois postos de carre-
gamento. Os caminhões são carregados à medida que chegam e às vezes têm
de esperar pelo atendimento. Após observações, foram colhidos os seguintes
dados: taxa média de chegada de 2 veículos por hora e tempo médio de 20
minutos para se carregar um caminhão. Responda:
a) Qual é a probabilidade de um caminhão chegar ao centro de distribuição
e ter de esperar para ser atendido?
b) Qual é o número médio de caminhões na f ila?
c) Qual é o número esperado de caminhões no sistema?

– 270 –
A taxa de atendimento por servidor, m , é obtida do tempo médio de aten-
dimento. Portanto, m = 3 caminhões hora . A taxa de chegada é l = 2 veículos hora e,
2 1
do enunciado, concluímos que s = 2 e r = = .
2× 3 3
Aplicamos a expressão (6.22) para calcular P0 :
1 1
P0 = Þ P0 = ,
é s-1 ( l )n ù é 1 ( 2 3 )n ù
ú + ( m)
s 2
ú + ( 3)
l 2
ê ê
ê å n! ú ê å n! ú
m

s!(1- r ) êë n=0 úû 2!(1- 1 3 )


ëê n=0 ûú
1 1
P0 = Þ P0 = ,
( 3)2
0
( 3)
2
1
( 3)
2
2
2 2
+ + 1+ +
0! 1! 2!(1- 1 3 ) 3 6

P0 = 0, 5 .

Lq é a probabilidade de se encontrar o sistema vazio. É importante res-


saltar que P0 é o valor chave nos cálculos de sistemas M / M / s, uma vez que
as medidas de efetividade têm suas expressões dependentes desse valor.
A probabilidade de um caminhão que chegue ao centro de distribuição
ter de esperar para ser atendido é Pn³2 , isto é,

2
( 2 3)
Pn³2 = ´0, 5 Þ Pn³2 @ 0,1667 .
2!(1-1 3)

O número esperado de caminhões na f ila é Lq . Aplicamos a expressão (6.23),

( l m)
s 2
r ( 2 3) 1
3
Lq = P0 Þ Lq = ´0, 5 @ 0,083 clientes .
s!(1- r ) 2
2!(1-1 3)2

O número esperado de caminhões no sistema é L. Aplicamos a expres-


são (6.24),

( l m)
s
r l 1 2
L= P0 + Þ L = + = 0,75 clientes .
s!(1- r ) 2
m 12 3

– 271 –
À primeira vista, o leitor pode estranhar os valores decimais obtidos
para as grandezas Lq e L, uma vez que as medidas possuem aparentemente
a conotação de grandezas inteiras. Entretanto, os valores decimais podem ser
explicados por se tratar de esperanças matemáticas que resultam de produtos
de probabilidades por números inteiros.
A teoria das f ilas de espera propicia uma ferramenta valiosa para orien-
tar o projetista no planejamento de sistemas de atendimento a usuários em
geral. O dimensionamento de um call center, por exemplo, requer conheci-
mentos de sistemas de f ilas. Neste contexto, sugerimos ao leitor a resolução
do exercício 6 deste capítulo, que trata do dimensionamento de um sistema
telefônico.
Na próxima seção serão estudados os sistemas de f ilas do tipo markovia-
no com um único atendente e capacidade do sistema f inita, dada pela quan-
tidade especif icada C.

6.4.3 Sistema de f ilas M / M / 1 / C

Neste modelo, um usuário que chega e encontra o sistema já com C


usuários, não é atendido e é imediatamente descartado. Isto signif ica que o
número de consumidores no sistema não pode exceder ao número especif ica-
do C. Em relação aos modelos estudados nas seções 6.4.1 e 6.4.2, a principal
modif icação é que a taxa de chegada de usuário será l para todos os estados

n £ C -1 e será zero para n ³ C; consequentemente, l ≠ l .
O diagrama de transição é parecido com aquele mostrado na f igura 6.6,
exceto pelo fato de o processo parar no estado n = C . A f igura 6.8 ilustra o
diagrama do modelo M / M / 1 / C.

...

Figura 6.8: Diagrama de transição de um sistema de f ilas do tipo M / M / 1 / C

– 272 –
C
Da análise do diagrama é imediata a constatação de que ∑ P = 1.
n=0
n

A exemplo do desenvolvimento apresentado para sistemas M / M / 1, para


o sistema M / M / 1 / C temos a probabilidade de serem encontrados n usuários
no sistema dada pela fórmula (6.28):

n
æl ö
Pn = çç ÷÷÷ P0 , para n = 0, 1 ..., C. (6.28)
çè m ÷ø

Supondo r = l m < 1, o cálculo de P0 passa pela avaliação do somatório


C

å r P = 1, que é uma progressão geométrica de C +1 termos, que resulta


n=0
n
0

na expressão:

1- r
P0 = . (6.29)
1- r C+1

As relações (6.28) e (6.29) implicam a expressão (6.30):

1- r n
Pn = r , para n = 0, 1, ..., C. (6.30)
1- r C+1

As medidas de efetividade L, W , Wq e Lq são então obtidas calculan-


do-se primeiramente a grandeza L, conforme se mostra em (6.31):

r (C + 1)r C+1
L= - . (6.31)
1- r 1- r C+1
As demais medidas de efetividade são obtidas utilizando-se as seguintes
relações:

Lq = L - r ,

W=L ,
l
e
Lq
Wq = ,
l

– 273 –
em que, de acordo com a seção 6.3.1,
C-1
l = å l Pn Þ l = l(1- PC ) . (6.32)
n=0

PC é a probabilidade de um usuário encontrar o sistema em sua capacidade


máxima, que é calculada pela expressão (6.33):

(1- r )r C (6.33)
PC = , para r < 1 .
1- r C+1

A obtenção de W e Wq a partir de L e Lq , respectivamente, requer


para o modelo M / M / 1 / C o emprego do parâmetro l , que é a esperança
matemática da taxa de chegada. Essa exigência é inerente aos processos de
f ilas cujos sistemas têm capacidades limitadas. A explicação para isto é a se-
guinte: para f ins de simplif icação das expressões, adotamos a suposição de que
as taxas independem dos estados n = 0, 1, 2,  e são iguais a l. Para siste-
¥
mas com capacidade ilimitada temos l = l å Pn = l ; porém, para sistemas
n=0
limitados, em geral, l ¹ l , como é o caso mostrado na expressão (6.32).
A resolução de um exemplo esclarece a aplicação do modelo estudado
nesta seção.

Exemplo 6.5: Um laboratório de radiologia possui apenas um equipamento e


atende pacientes numa base FIFO. Por razões de limitação de espaço físico, o
laboratório comporta no máximo 4 pacientes. Os pacientes chegam de acordo
com um processo de Poisson, a uma taxa média de 1 paciente por hora. O tem-
po necessário para atender um paciente é exponencialmente distribuído com
uma média de 45 minutos. Determine:
a) o número médio de pacientes presentes no laboratório;
b) a probabilidade de um paciente escolhido ao acaso não conseguir sequer
espaço na sala de espera;
c) o tempo médio que um paciente deve esperar para ser atendido.

As taxas de chegada e atendimento são l = 1 paciente hora e


m = 3 pacientes hora, respectivamente. A intensidade de tráfego oferecida
4

no sistema é r = l m = 3 4 erlang.

– 274 –
Dado que C = 4 e foi pedido o número médio de pacientes no laborató-
rio, L , aplicamos a fórmula (6.31),
r (C + 1)r C+1
L= - ,
1- r 1- r C+1

0,75 5´0,755
L= - ,
1- 0,75 1- 0,755
L @ 1, 444 pacientes.

Encontrar o laboratório ocupado é encontrar 4 pacientes no sistema.


Daí, calcula-se essa probabilidade do seguinte modo:

(1- r )r C
PC = ,
1- r C+1

(1- 0,75)0,754
P4 = ,
1- 0,755
P4  0,104.

O tempo médio que um paciente deve esperar para ser atendido é Wq ,


que requer o cálculo de l e Lq , a saber:

l = l(1- PC ) ,

l = 1(1− 0,104) Þ l = 0, 896 pacientes


hora ;
λ,
Lq = L −
µ
Lq = 1, 444 − 0, 672 ⇒ Lq ≅ 0, 772 pacientes;

Wq = 0,672 0,896 = 0, 75 hora ⇒ Wq = 45 minutos.

Portanto, o tempo médio de espera de pacientes no laboratório é apro-


ximadamente de 45 minutos.
A seguir, serão estudados os sistemas de f ilas do tipo markoviano com
múltiplos servidores de atendimento e capacidade f inita.

– 275 –
6.4.4 Sistema de f ilas M / M / s / C

A dedução da fórmula para o cálculo da probabilidade de serem encontra-


dos n usuários no sistema para o modelo M / M / s / C f ica trivial em vista dos
desenvolvimentos anteriores. A suposição mais forte é que o número de servi-
dores ou atendentes é no máximo igual à capacidade do sistema, ou seja, s £ C .
Neste modelo, para o estado n, n = 0, 1, 2, ..., C –1, a taxa de chegada ln
é igual a l e ln= 0, para n = C. A taxa de atendimento n é n = n para
n = 0, 1, 2, ..., s –1 e, n = s, para o estado n de s a C.
Para um número n de usuários menor do que o de servidores s, a proba-
bilidade Pn é a mesma calculada pela expressão (6.20). Mas, para s £ n £ C , a
probabilidade Pn é a mesma calculada pela expressão (6.21). Para n > C, Pn = 0 ,
pois não mais se admitem usuários no sistema. Isto quer dizer:

 ( λ µ)n
 P , para n = 1, 2, , s −1,
 n! 0


Pn =  ( λ µ)n (6.34)

 s! s n− s P0 , para n = s, s + 1, , C,



 0, para n > C.
C
Além disso, ρ = λ < 1 e ∑ Pn = 1.
sµ n=0
A expressão para o cálculo da probabilidade do sistema ocioso é dada por:

1
P0 = .
( l m) ( l m)
n s
s C
n- s
å
n=0 n!
+
s!
å( )
n= s +1
l
sm
(6.35)

Como para n £ s não há f ila, obtemos a fórmula para o cálculo do nú-


mero médio de usuários na f ila efetuando o desenvolvimento da seguinte ex-
pressão:
( l m)
n
C
Lq = å ( n - s) P0 .
n= s s! s n- s

– 276 –
Para n - s = j ,
s+ j
C- s
( l m)
Lq = å j P0 ,
j =0 s! s j

P0 C- s l j
Lq = ( lm ) å j ( sm ) ,
s

s ! j =0

P0 C- s j
Lq = ( lm )
s
å jr ,
s ! j =0

P0 C- s j-1
Lq = ( lm )
s
r å jr .
s ! j =0

dr j
Mas, = jr j-1. Então,
dr

P0 C- s dr j
Lq = ( lm )
s
rå ,
s! j=0 dr

P0 d C- s j
Lq = ( lm )
s
r år ,
s! dr j=0

P0 d æç1- r C+ s+1 ö÷
Lq = ( lm )
s
r ç ÷.
s! dr èç 1- r ÷÷ø

A última expressão é válida para r < 1. Conclui-se o desenvolvimento


efetuando-se a derivada que compõe a expressão. Consequentemente, a ex-
pressão para cálculo de Lq para o modelo de f ilas M / M / s / C é dada por
(6.36),

( l m)
s
r
Lq = é1- r C- s - (C - s)r C- s (1- r )ù P0 . (6.36)
s!(1- r )2 ë û

– 277 –
De posse do valor Lq, o número médio de usuários no sistema, L, pode
ser calculado pela expressão (6.37).

s−1
L = Lq + s + ∑ ( n − s)Pn , (6.37)
n=0

( l m)
n

em que Pn = P0 .
n!
Uma fórmula alternativa de obtenção de L é

λ
L = Lq + , (6.38)
µ
em que, l = l (1− PC ) e

( µ)
C
λ
PC = P0 .
s! s C− s

As demais medidas de efetividade são obtidas pela aplicação das seguin-


tes expressões:

W=L ,
l
e
Lq
Wq = .
l
Um sistema de fila derivado do modelo estudado nesta seção é o M / M / s / s,
em que não é permitida a formação de fila. Essa propriedade decorre da condição
s = C, que especifica que não há espaço destinado para a espera. As fórmulas desse
modelo podem ser obtidas a partir do modelo M / M / s / C, fazendo-se s = C nas
expressões. Dessa forma,

( µ) P , 0 ≤ n ≤ s ,
n
λ
Pn = 0
(6.39)
n!

– 278 –
1
P0 = n
. (6.40)
s
(λ µ)

n=0 n!

A probabilidade de uma chegada encontrar o sistema ocupado, ou de


rejeição, é obtida impondo-se n = C na expressão de Pn.

6.5 Relevância da teoria de filas em sistemas de comunicação

A importância do estudo de sistemas de f ilas de espera em áreas aplica-


das é inquestionável. Como exemplo, citamos o seguinte fato: em uma lista
telefônica da companhia Pacif ic Bell, que atende a região da Califórnia, nos
EUA, lê-se a seguinte frase: “30 second response time to 90% of customer service
phone calls”. Isto quer dizer que, em 90% das chamadas feitas pelos clientes
que usam o sistema da companhia, o tempo de resposta esperado é de 30 se-
gundos. Esta informação só é possível porque algum método que usa a teoria
de f ilas foi aplicado no planejamento do sistema telefônico.
Na área de telefonia, o modelo de f ilas mais usado é o modelo de Erlang
– vide seção 4.5.4. Em sistemas de comunicações, a intensidade de tráfego é
um dado que varia aleatoriamente com o tempo, podendo experimentar pe-
ríodos de ociosidade e de congestionamento. O projeto de um dado sistema
telefônico deve garantir que a probabilidade de haver congestionamento seja
menor do que ou no máximo igual a um certo valor considerado razoável.
Essa probabilidade é denominada probabilidade de bloqueio, designada pelo
símbolo Pb . Dentre os modelos estocásticos de tráfego, o modelo conhecido
como Erlang-B é o indicado para medir a taxa de bloqueio de requisições
quando o tráfego é aleatório e não existe f ila de espera. Esse é o caso em que
a requisição de chamada, ao encontrar o sistema ocupado, abandona-o e não
forma f ila.
No modelo de Erlang, as chamadas chegam a um enlace conforme um
processo de Poisson de taxa conhecida, l, que é uma medida do número
médio de chamadas por unidade de tempo. Os tempos de serviços seguem
a distribuição exponencial, com taxa m . O tráfego é caracterizado pela re-

– 279 –
lação l m , designada por r . O enlace é composto por circuitos – troncos ou
linhas –, e uma chamada é bloqueada e perdida se todos os circuitos estive-
rem ocupados. Em caso contrário, a chamada é aceita e utiliza um circuito
durante o seu tempo de retenção. Estudos sobre a distribuição estatística de
Poisson para cálculo da probabilidade de bloqueio podem ser sintetizados
na fórmula B de Erlang, ou fórmula de perda de Erlang, que é dada pela
expressão (6.41):

rN
Pb = N
N!
. (6.41)
å
k =0
rk
k!

Cabe notar que o modelo de Erlang é apenas parte de uma área do es-
tudo conhecido como teoria de f ilas. Tal área é capaz de tratar problemas
complexos de tráfego em redes compartilháveis pelos mais diversos tipos de
informação, tais como voz, dados e multimídia. No caso do tráfego de chama-
das telefônicas, o modelo de Erlang-B se aplica sem restrições.
A avaliação numérica da probabilidade Pb por meio da aplicação direta
da fórmula (6.41) oferece dif iculdades, uma vez que o número N de linhas
pode assumir valores muito altos. O problema advém tanto do cálculo do fa-
torial quanto do cálculo das potências de  à medida que N cresce. Um méto-
do que contorna a ocorrência de overflow no cálculo numérico desta expressão
é proposto por Qiao & Qiao (1998).
No próximo capítulo serão estudadas simulações.

6.6 Exercícios propostos

1. O modelo de chegadas de carros que seguem por uma via estreita e única a
um banco caixa rápido segue um processo de Poisson, com taxa média de um
carro por minuto. Os tempos de utilização são exponencialmente distribuí-
dos, com uma média de 45 segundos. Considerando que um carro esperará o
quanto for necessário, determine:
a) o número esperado de carros aguardando por utilização do caixa rápido;
b) o tempo médio que um carro espera pela utilização do serviço;

– 280 –
c) o tempo médio que um carro gasta no sistema; e
d) a probabilidade de que existam carros esperando na rua, se o estabeleci-
mento do banco pode somente comportar um máximo de 5 automóveis.

2. Uma rede de computadores possui apenas um roteador para fazer o ro-


teamento dos datagramas ou pacotes. A memória ou buffer desse roteador
comporta no máximo 2.000 datagramas. Os datagramas chegam ao rotea-
dor de acordo com um processo de Poisson, a uma taxa de chegada de 540
datagramas
minuto . O tempo médio exponencialmente distribuído de atendimento
de um datagrama é de 0,1 segundo. Determine:
a) o tempo médio que um datagrama deve esperar para ser atendido;
b) o número médio de datagramas presentes na memória do roteador.

3. Um sistema de atendimento ao cliente de uma pequena empresa comercial


é operado por uma pessoa por meio de uma central telefônica. As demandas
dos clientes ao sistema seguem uma distribuição de Poisson, com uma taxa
média de chegada de 10 solicitações por hora. Os clientes são atendidos em
base FIFO e os que ligam e encontram o sistema ocupado esperam pelo aten-
dimento. Isto faz que às vezes existam chamadas em espera; ou seja, forma-se
uma f ila. O tempo gasto para atender a um cliente é estimado como exponen-
cialmente distribuído e dura, em média, 4 minutos. Determine:
a) o número médio de clientes no sistema;
b) o número médio de clientes em espera – ou seja, ouvindo música;
c) o tempo esperado que um cliente deve aguardar pelo atendimento;
d) o tempo médio que um cliente permanece no sistema de atendimento.

4. Veículos chegam em f ila única a um semáforo com duas opções de mo-


vimento, seguir em frente ou virar à direita. As chegadas obedecem a um
processo de Poisson, com taxa média de 9 veículos a cada 2 minutos. Os tem-
pos de utilização são exponencialmente distribuídos, com uma média de 25
segundos – utilização é quando um veículo recebe permissão de passagem.
Supondo taxas iguais para as demandas e para as duas opções de movimento,
e considerando que um carro esperará o quanto for necessário, determine:
a) a probabilidade de encontrar o sistema ocioso;
b) o número esperado de carros aguardando pela sua vez de passagem;
c) o tempo médio que um carro espera pela passagem;

– 281 –
d) o tempo médio que um carro permanece no sistema; e
e) a probabilidade de que um carro tenha de parar nesse cruzamento.

5. Uma companhia telefônica instalou 3 cabinas em um aeroporto. A deman-


da de uso dos aparelhos é estimada como uma distribuição de Poisson de
modo que, em média, a cada 2,4 minutos chega um novo usuário. Os tempos
gastos nas chamadas telefônicas têm uma distribuição exponencial tal que, em
média, a cada 2 horas 18 usuários concluem suas ligações. Pergunta-se:
a) Qual é o fator de utilização das cabinas?
b) Qual é a probabilidade de um usuário encontrar as cabinas vazias, ou seja,
o sistema desocupado?
c) Qual é o número médio de usuários no sistema?
d) Qual é a probabilidade de que um usuário, ao chegar para utilizar o servi-
ço, tenha de esperar pelo atendimento?

6. (SHAMBLIN & STEVENS JR., 1989) Uma companhia telefônica planeja


instalar cabinas em um novo aeroporto. Ela traçou a norma de que uma pessoa
não deve esperar mais que 10% das vezes em que tentar usar o telefone nesse
sistema. A demanda de uso é estimada como uma distribuição de Poisson­com
uma média de 30 usuários por hora, isto é, l = 30 usuários hora . A  chamada tele-
fônica tem uma distribuição exponencial com um tempo médio de 5 minutos,
isto é, m = 12 usuários hora . Como l é menor do que sm, pois estamos no sistema
M / M / s e não sabemos qual é o valor de s, o número de cabinas não pode ser
menor do que 3 ( 30 < 3´12 ). A tabela 6.1 apresenta os valores de P0 e Pn³3 .

Tabela 6.1: Valores de P0 e Pn³ s para diversos valores supostos de s

Número de
Probabilidade do sistema Probabilidade do sistema ocupado,
servidores,
ocioso, P0 Pn³ s
s
3 0,0449 0,702 ® 70,2%
4 0,0737 0,320 ® 32%
5 0,0801 0,130 ® 13%
6 0,0816 0,047 ® 4,7%

Com base nesses dados, responda: quantas cabinas telefônicas deverão


ser instaladas?

– 282 –
7. Os aviões requisitam permissão para aterrissar em um aeroporto de pista
única a uma média de um a cada 4 minutos; a distribuição das requisições se
aproxima da distribuição de Poisson. Os aviões recebem permissão em uma
base FIFO, e aqueles que não têm condições de pouso imediato devido a con-
gestionamento de tráfego aéreo são colocados em espera. Mas, por restrições do
espaço aéreo da cidade, apenas 3 aviões podem permanecer em espera. O tempo
requerido para pouso varia com a experiência do piloto e é exponencialmente
distribuído com média de 3 minutos. Determine:
a) o número médio de aviões em espera;
b) o tempo médio que um avião aguarda até conseguir a permissão de pouso;
c) a probabilidade de que existam mais de dois aviões no sistema.

8. Resolva o exercício anterior supondo que haja duas pistas no aeroporto, ou


seja, M / M / 2 / 4 .

9. Em relação ao modelo de f ila estudado na seção 6.4.4, complete a dedução


da expressão de cálculo de Lq que deve resultar em (6.36). Mostre também
que as expressões (6.37) e (6.38) conduzem ao mesmo resultado.

10. Faça uma comparação entre os sistemas de f ilas M / M / 1 e M / M / 1 / C ,


e verif ique que as fórmulas de cálculo das medidas de efetividade do primeiro
modelo podem ser obtidas a partir das fórmulas correspondentes do modelo
com capacidade f inita, ao considerar o limite para C ® ¥ .

11. A partir das expressões (6.39) e (6.40) obtenha a fórmula (6.41) da proba-
bilidade de bloqueio.

12. Utilize como fonte bibliográf ica inicial o artigo de Qiao e Qiao (1998)
e procure compreender a proposta desses autores para avaliar a expressão
(6.41), contornando as dif iculdades numéricas computacionais verif icadas
quando o cálculo dessa expressão é efetuado de forma direta.

– 283 –
VII
Simulação Monte Carlo

E  ste capítulo aborda simulação Monte Carlo. Como fonte suplementar,


sugerimos a leitura de Cancho (2004), Hillier & Lieberman (1995), Jain
(1991), Lopes (1999), Nelson, B. (1995) e Shamblin & Stevens Jr. (1989).
Para se estudar um sistema de qualquer natureza, é preciso descrevê-lo
por meio de um modelo. Isto vale para sistemas socioeconômicos, mecânicos,
elétricos, biológicos etc. O modelo pode ser de natureza matemática – consti-
tuído de equações, inequações e relações lógico-matemáticas – ou até mesmo
de natureza física – como, por exemplo, um protótipo. Em muitos casos, a
tentativa de se obter um modelo é frustrada porque as relações presumidas
entre duas ou mais variáveis do problema não são conhecidas ou porque há
variáveis estocásticas cujas distribuições de probabilidades não são conheci-
das. Pode ser que, ao tentarmos descrever um sistema por um modelo mate-
mático, descubramos que o sistema é tão complexo que o modelo não possui
representação analítica, ou seja, não é possível encontrar respostas matemati-
camente bem def inidas que relacionem as variáveis do problema. Tanto nos
casos de desconhecimento de relações entre variáveis do problema quanto na-
queles em que a complexidade do sistema é uma característica marcante, a
simulação computacional pode tornar-se uma ferramenta valiosa na obtenção
de uma resposta para um problema particular.
Há vários modelos de simulação, dentre os quais podemos citar:
–– programas para computador (um simulador de voo é um exemplo);
–– redes elétricas em escala reduzida, para estudos de operação;
–– usinas em escala reduzida, que simulam o funcionamento de um sistema
real;

– 285 –
–– circuitos elétricos que descrevem circuitos hidráulicos;
–– circuitos eletroeletrônicos que são projetados para descrever o comporta-
mento dinâmico de sistemas mecânicos;
–– modelos matemáticos.

Na análise de alguns modelos de sistemas físicos, como, por exemplo,


os modelos de circuitos elétricos não lineares, a simulação numérica com o
emprego do computador é a forma mais adequada para se obter respostas.
A razão disso é que, mesmo que esses sistemas sejam expressos por meio de
equações matemáticas, tais equações podem não admitir soluções analíticas.
Simular signif ica reproduzir o funcionamento de um sistema real com o
auxílio de um modelo. A simulação corresponde à realização de experimentos
numéricos com modelos lógico-matemáticos. Esses experimentos envolvem
geralmente um grande volume de cálculos repetitivos e, por isso, requerem
uso intensivo do computador. Nas últimas décadas, o computador tem-se re-
velado a ferramenta mais ef icaz no estudo de problemas complexos, prin-
cipalmente os problemas de grande porte e aqueles que possuem variáveis
aleatórias em suas formulações.
A simulação por computador pode ser aplicada tanto na solução de pro-
blemas estocásticos como de problemas determinísticos. Independentemente
do fato de o problema possuir variável estocástica ou determinística, a simu-
lação estocástica consiste no uso de números aleatórios de maneira intensiva.
A simulação que se baseia no emprego de números aleatórios é denominada-
simulação Monte Carlo.
Neste capítulo, interessa-nos a abordagem da simulação baseada no
uso do computador e no emprego de números aleatórios. Portanto, o seu
enfoque é a simulação Monte Carlo. Trata-se de uma simulação de siste-
mas que incorpora elementos aleatórios e é também denominada método de
Monte Carlo. Tendo em vista que essa simulação necessita do processamen-
to de grande quantidade de dados, esse tipo de cálculo requer a utilização
do computador.
Historicamente, o método de Monte Carlo data da época do surgimento
do primeiro computador eletrônico ENIAC (Electronic Numerical Integrator
Analyser and Computer) e do advento do projeto para o desenvolvimento de
armas nucleares. Seus precursores foram os pesquisadores John von Neu-
mann, Stanislaw­Ulam e Nicholas Metropolis.

– 286 –
7.1 Geração de números aleatórios

Simulação é uma modalidade experimental de pesquisa que procura


tirar conclusões baseadas no uso de modelos matemáticos que representam
um sistema real. Os modelos matemáticos podem conter apenas a parte
lógica e real do sistema, expressa por meio de equações, ou ter, adicional-
mente, um componente aleatório que permita medir o comportamento do
sistema em prova quando eventos com certa probabilidade de ocorrência
intervêm no resultado f inal do exercício de simulação. Para a geração do
componente probabilístico envolvido nos modelos, é necessário que os
sistemas computacionais ou as linguagens de programação possuam uma
rotina de geração de números equiprováveis – números aleatórios unifor-
mes. Embora seja a regra geral nas linguagens atuais, tal condição possui,
de forma geral, baixa ef iciência, por ser de ciclo muito curto. A função
random(.) na linguagem C ou C++ tem um ciclo que corresponde ao dos
números inteiros, isto é, entre 0 e 32.767. Outras linguagens têm funções
um pouco melhores, mas, em geral, não o suf iciente para garantir ao pes-
quisador uma ef iciência adequada.
Para atender as necessidades dos pesquisadores, as funções devem gerar
números entre 0 e 1, que possuam ciclos de ordem elevada, de forma a ga-
rantir que milhares ou mesmo milhões de simulações sejam feitas sem que se
encontre repetição dos números gerados.
Antes do advento do computador, números aleatórios eram gerados
por algum tipo de dispositivo, tais como roletas, dados especiais, cartões
numerados retirados manualmente etc. Esses métodos eram adequados so-
mente para casos em que eram necessários poucos números. Com a neces-
sidade de gerar números aleatórios em grande quantidade e, obviamente,
com grande rapidez, foram construídos dispositivos eletrônicos para essa
f inalidade. O mais conhecido foi o equipamento desenvolvido pela Rand
Corporation, no qual se usava um gerador eletrônico de pulso, comandado
por uma fonte de ruído. Um milhão de números aleatórios gerados por esse
dispositivo foi publicado em 1955 (“A Million Random Digits with 100.000
Normal Deviates”). Entretanto, a utilização dos resultados obtidos desse
dispositivo, que era, também, disponível em f ita magnética, apresentava
dif iculdades operacionais.
Com o advento do computador, foram desenvolvidos métodos ma-
temáticos para gerar esses números aleatórios no próprio computador.

– 287 –
Introduz-se no programa principal uma rotina geradora de números ale-
atórios que é acionada toda vez que for necessária durante o processo de
simulação. Desse modo, são gerados números pseudoaleatórios. Uma se-
quência pseudoaleatória de números não é rigorosamente aleatória por-
que é obtida pelo uso de uma regra matemática pref ixada, totalmente
determinística.
O conceito de congruência para números inteiros pode ser formulado
como segue: sejam dados a, r e m números inteiros. Diz-se que a é congruente a
r módulo m, e escreve-se a ≡ r (mod m), quando existe um número inteiro q tal
que r = a – qm. Do ponto de vista computacional, denotaremos r ← a mod m.
A fórmula empregada por esses geradores, chamada de congruencial,
tem a seguinte forma: kxi ≡ xi+1(mod m), para cada i=1, 2, ..., que será deno-
tado por
x ← k x mod m, (7.1)
i+1 i

isto é, xi+1 é o resto da divisão de kxi por m, de forma que, dados os valores k
e m e o valor inicial – chamado semente – x1, pode-se gerar uma sequência de
valores equiprováveis independentes. A escolha dos valores k e m é crucial na
ef iciência e no tamanho do ciclo de valores gerados. Muitos autores sugerem
para essas variáveis, em geral, valores que sejam elevados, ímpares e de pre-
ferência primos.
Wichmann & Hill (1982) apresentam um gerador desse tipo, que, se-
gundo os autores, apresenta um ciclo que excede 2,78 × 1013. Para se ter uma
ideia do tamanho desse ciclo, se um computador gerasse continuamente mil
números por segundo, a sequência não se repetiria em um tempo inferior a
880 anos!
A função de geração de números pseudoaleatórios proposta por Wichmann
& Hill (WH) produz números uniformemente distribuídos entre 0 e 1 e tem seus
passos conforme descreve o algoritmo 7.1.

Algoritmo 7.1: Sequência de números aleatórios uniformes de WH


Dados: três números inteiros, ix, iy e iz, situados no intervalo [1, 30.000] e o
número que representa a quantidade de números da sequência, n:

Para i = 1, ..., n
  ix ← 171ix mod 30.269
 iy ← 172iy mod 30.307

– 288 –
 iz ← 170iz mod 30.323

 xi ← parte fracionária da soma  ix iy iz 
 30.269 + 30.307 + 30.323 .

7.2 Simulação Monte Carlo através da utilização de etiquetas

Esta seção é inspirada na bibliografia de Shamblin & Stevens Jr. (1989).


O método de Monte Carlo é diferente de métodos analíticos porque não
resolve o problema solucionando diretamente equações matemáticas do mo-
delo. Dentre as suas vantagens, podemos citar as seguintes: extensão – pode
ser aplicado mesmo em problemas para os quais não exista solução analítica;
flexibilidade – pode-se aplicar aos mais variados problemas; e rapidez, devido
à simplicidade dos cálculos. Sua desvantagem é a baixa precisão. O uso in-
tensivo do computador para a execução de várias simulações e se tomar uma
média constitui uma alternativa para melhorar a precisão.
Um importante benefício do processo de modelagem em simulação
computacional é o seu caráter evolutivo. Assim, começando com um mode-
lo relativamente simples, iremos, gradativamente, identif icando de maneira
mais clara as peculiaridades do problema. Em função desse aprendizado, te-
remos também condições de aperfeiçoar o modelo, incorporando novas vari-
áveis e relações, aproximando-o cada vez mais da realidade.
Os procedimentos para a simulação Monte Carlo são os seguintes:
• estabelecer a função de probabilidade acumulada, ou seja, a distribuição
de frequência relativa acumulada;
• construir o quadro de etiquetas, isto é, classes que representam a distribui-
ção acumulada, de modo que as etiquetas possuam o mesmo número de
dígitos das casas decimais da representação numérica da probabilidade;
• usar um gerador de números aleatórios, como, por exemplo, o algoritmo 7.1;
• obter a previsão.

A previsão referida no último procedimento será o resultado da simu-


lação, isto é, uma vez que as probabilidades são conhecidas, simulam-se or-
dens de ocorrências, padrões etc. do problema em questão. Nesse ponto, para
melhorar a precisão do resultado, sugerimos repetir o processo um número
considerável de vezes. O número de simulações pode ser obtido com base no
desenvolvimento que consta na seção 7.3.

– 289 –
A seguir, resolveremos um exemplo que ilustra a aplicação dos procedi-
mentos da simulação Monte Carlo de um problema com uma única variável
aleatória usando etiquetas.

Exemplo 7.1: Durante um certo período do ano de 1998, uma concessionária


de veículos fez inúmeras anotações sobre o número de carros vendidos diaria-
mente. Os resultados estão mostrados na tabela 7.1.

Tabela 7.1: Frequência de vendas

Número de vendas Número de ocorrências


0 5
1 10
2 15
3 30
4 25
5 15

O departamento comercial da concessionária deseja ter uma projeção


das vendas de veículos nos próximos dez dias. A suposição é que o mercado se
comportará tal como no período da pesquisa.
Em primeiro lugar, vemos que a demanda diária por veículos, ex-
pressa pelo número de ocorrências, é uma variável aleatória, e a previsão
de demanda é função dessa variável e depende de como a demanda está
distribuída. Portanto, temos um problema probabilístico. Atente o leitor
que os dados da tabela 7.1 são conhecidos como distribuição empírica de
probabilidades.
A solução desse problema simples pela simulação Monte Carlo será feita
em cinco passos:
1. construção da distribuição de demanda – frequências relativas das vendas
diárias;
2. construção da distribuição acumulada da demanda;
3. construção, a partir da distribuição acumulada, de um quadro de etiquetas;
4. sorteio dos números aleatórios;
5. localização dos números sorteados nas classes e obtenção da previsão de
demanda.

– 290 –
Passo 1 – Distribuição de demanda:
Como são cem ocorrências, a tabela 7.2 mostra as frequências relativas a cem.
Tabela 7.2: Frequência relativa de vendas
Número de vendas Frequência relativa
0 0,05
1 0,10
2 0,15
3 0,30
4 0,25
5 0,15

Passo 2 – Distribuição acumulada de demanda:


Somando as frequências das classes, obteremos a tabela 7.3.
Tabela 7.3: Frequência relativa acumulada de vendas
Número de vendas Frequência acumulada F(x)%
0 0,05 5
1 0,15 15
2 0,30 30
3 0,60 60
4 0,85 85
5 1,00 100

Ao escolher F(x)%, a ideia é gerar frequências acumuladas percentuais ou


inteiras por mil, que permitam operar com números aleatórios também inteiros.

Passo 3 – Construção do quadro de etiquetas:


Com base nos valores da F(x)% da tabela 7.3, construímos o quadro de etique-
tas da tabela 7.4.
Tabela 7.4: Vendas e respectivas etiquetas
Número de vendas Números das etiquetas
0 00 – 04
1 05 – 14
2 15 – 29
3 30 – 59
4 60 – 84
5 85 – 99

– 291 –
Passo 4 – Sorteio dos números aleatórios:
Sobre o sorteio de números aleatórios temos de considerar o seguinte:
• a previsão é para dez dias, então vamos sortear um total de dez números;
• as etiquetas contêm dois dígitos, por isso, os números aleatórios devem ser
também de dois dígitos.

Sorteamos os números aleatórios com dois dígitos. Procedendo assim,


em dez tentativas, extraímos os números mostrados na tabela 7.5, tal que cada
número sorteado refere-se a um dia da previsão.

Tabela 7.5: Números aleatórios sorteados

26 39 01 49 17 42 05 37 69 53

Passo 5 – Uso dos números sorteados para obter a previsão de demanda:


Vamos identif icar cada um dos números sorteados com as classes def inidas no
quadro de etiquetas da tabela 7.4 e ler a correspondente venda diária. Consta-
tamos que o número aleatório 26 pertence ao intervalo 15−29 ⇒ 2 vendas no
primeiro dia; o número aleatório 39 pertence ao intervalo 30−59 ⇒ 3 vendas
no segundo dia; e assim por diante. A tabela 7.6 mostra a previsão obtida.

Tabela 7.6: Previsão de vendas nos próximos 10 dias

Dias 1o 2o 3o 4o 5o 6o 7o 8o 9o 10o
Número previsto de vendas 2 3 0 3 2 3 1 3 4 3

É importante ressaltar que as frequências relativas da tabela 7.2 nos for-


necem a medida em que podemos esperar que as vendas ocorram; ou seja, es-
sas frequências são as probabilidades de ocorrências das vendas. Surge então a
seguinte questão: o que, af inal, estamos simulando ao usarmos números alea­
tórios, se são conhecidas as probabilidades? A resposta é a seguinte: embora
a probabilidade de cada nível de venda seja conhecida, nada sabemos sobre
a ordem de ocorrência dessas vendas. É a ordem da ocorrência que supomos
aleatória e está sendo simulada.
Neste ponto, com o intuito de f inalizar a exposição, serão apresentados
sob a forma de exemplos os procedimentos da simulação Monte Carlo para o
problema de programação linear e problemas de f ilas.

– 292 –
7.2.1 Exemplo em Programação Linear

Devido à complexidade das restrições envolvidas a simulação Monte


Carlo fornecerá uma saída para o problema em questão.

Exemplo 7.2: A venda de dois componentes para computadores vem sofrendo


alterações diariamente na empresa, sendo x e y as quantidades demandadas
pelos clientes. O valor da função lucro é z = 2x + 3y. As variáveis x e y são
independentes e têm as seguintes distribuições de frequência relativa: para x
igual a 10, é de 0,20; para x igual a 12, é de 0,30 e para x igual a 14, é de 0,50;
e para y igual a 8, é de 0,40; para y igual a 9, é de 0,50 e para y igual a 10, é de
0,10. Construir os valores de z usando 5 simulações para x e y. Qual o valor
médio de z? Use os números aleatórios: para x, 38, 91, 18, 89, 71; e para y, 34,
41, 69, 04, 51.

Aplicamos os dois primeiros procedimentos para a simulação Monte


Carlo, conforme listados anteriormente. As tabelas 7.7 e 7.8 fornecem, respec-
tivamente, os valores para x e y.

Tabela 7.7: Frequências e etiquetas para os valores de x

Frequência relativa
Valores de x Frequência relativa Etiquetas
acumulada
10 0,20 0,20 00-19
12 0,30 0,50 20-49
14 0,50 1,00 50-99

Tabela 7.8: Frequências e etiquetas para os valores de y

Frequência relativa
Valores de y Frequência relativa Etiquetas
acumulada
8 0,40 0,40 00-39
9 0,50 0,90 40-89
10 0,10 1,00 90-99

– 293 –
As tabelas 7.9 e 7.10 referem-se às simulações para valores de x e y, res-
pectivamente. Isto signif ica que para o primeiro número sorteado igual a 38
para x, corresponde, no quadro de etiquetas da tabela 7.7, ao valor de x igual
a 12, enquanto que o número 34 gerado para y corresponde, no quadro de
etiquetas da tabela 7.8, ao valor de y igual a 8. O raciocínio é o mesmo para os
demais números das tabelas 7.9 e 7.10.

Tabela 7.9: Simulação para valores de x

Números
38 91 18 89 71
aleatórios
x 12 14 10 14 14

Tabela 7.10: Simulação para valores de y

Números
34 41 69 04 51
aleatórios
y 8 9 9 8 9

Através das tabelas 7.7, 7.8, 7.9 e 7.10, o valor médio de z é dado pelo
somatório dos seguintes valores:

z1 = 2(12) + 3(8) = 24 + 24 = 48;


z2 = 2(14) + 3(9) = 28 + 27 = 55;
z3 = 2(10) + 3(9) = 20 + 27 = 47;
z4 = 2(14) + 3(8) = 28 + 24 = 52;
e
z5 = 2(14) + 3(9) = 28 + 27 = 55;
isto é,
z = (48 + 55 + 47 + 52 + 55) / 5 = 51, 4.

7.2.2 Exemplo em sistemas de f ilas de espera

Aqui, em vez dos sistemas de f ilas de espera, conforme o Capítulo VI,


para estimar uma solução para um processo estocástico, será utilizada a simula-
ção Monte Carlo para a obtenção de uma previsão para um padrão pretendido.

– 294 –
Exemplo 7.3: O tempo de atendimento de um caixa em um supermerca-
do foi anotado. As anotações foram efetuadas durante um período consi-
derado satisfatório para o treinamento do operador do caixa, de modo a
garantir que sua rapidez seja estável. Os resultados estão compilados na
tabela 7.11.

Tabela 7.11: Tempos de atendimento e frequências

Tempo de atendimento (minutos) Frequência


2 5
4 8
6 15
8 10
10 2

Desejamos gerar, com o auxílio de números aleatórios, um padrão de


atendimento para cinco clientes. Como são 40 observações, calculamos as fre-
quências relativas ou porcentagens (por 100), e as frequências relativas acu-
muladas.

Tabela 7.12: Tempos de atendimento e frequências

Tempo de atendimento Frequência Frequência


(minutos) relativa (%) acumulada (%)
2 12,5 12,5
4 20 32,5
6 37,5 70
8 25 95
10 5 100

Na tabela 7.12 notamos que duas porcentagens da frequência acumulada


não são inteiras (12,5% e 32,5%). Para contornar essa dif iculdade no momento
de construir o quadro de etiquetas vamos tomar as frequências acumuladas
em por mil (por 1000), o que nos leva à tabela 7.13.

– 295 –
Tabela 7.13: Quadro de etiquetas

Tempo de atendimento Frequência Classes de


(minutos) acumulada (por mil) números aleatórios
2 125 000 a 124
4 325 125 a 324
6 700 325 a 699
8 950 700 a 949
10 1000 950 a 999

Resta-nos agora sortear cinco números aleatórios (um para cada cliente)
de três algarismos e localizar os números sorteados nas classes do quadro de
etiquetas na tabela 7.13. Vamos sortear os números aleatórios de três dígitos,
que são os mostrados a seguir:

053 808 011 226 397.

A tabela 7.14 fornece o padrão de atendimento para cinco clientes.

Tabela 7.14: Padrão de atendimento de cinco clientes

Clientes A B C D E
Número sorteado 053 808 011 226 397
Tempo de atendimento (minutos) 2 8 2 4 6

Uma questão importante na simulação Monte Carlo para a simulação


computacional é especif icar qual o número de simulações necessárias para
resolver um problema de forma adequada.

7.3 Número de simulações necessárias para assegurar um erro máximo


especif icado

Ao realizarmos simulações de processos estocásticos, geralmente deseja-


mos saber quantas simulações devemos realizar para garantir limites aceitá-
veis de erro e alcançar a conf iança desejada.

– 296 –
Determinar o número de simulações computacionais equivale a deter-
minar a priori, ou seja, antes de realizar o experimento aleatório, o número de
repetições ou de observações de um processo de amostragem. A obtenção de
uma fórmula de cálculo do número de simulações fundamenta-se no teorema
do limite central (vide seção 4.6) e no conceito de intervalo de conf iança.

7.3.1 Conf iança e intervalo de conf iança

Quando desejamos estimar um parâmetro q de uma população, tra-


balhamos com uma amostra e, por conseguinte, cometemos algum erro na
estimativa. Dessa forma, podemos af irmar o seguinte:

valor do parâmetro » valor do parâmetro para a amostra.

O parâmetro q referido neste capítulo é uma métrica da população, por


exemplo, a média ou o desvio padrão.
A ideia do intervalo de conf iança é um ref inamento da estimativa pon-
tual. Dificilmente o valor do parâmetro para a amostra será igual ao valor de
q da população. Este último, aliás, é desconhecido. Desse modo, considera-se
uma variação em torno do valor amostral e, assim, pode-se escrever que o
parâmetro situa-se entre dois limites. Ou seja:

valor do parâmetro = estimativa pontual  erro de amostragem.

A informação colocada dessa forma gera um intervalo de conf iança para


a estimativa. Portanto, desejamos obter um intervalo que seja pequeno o bas-
tante para a tomada de decisão e que seja também adequadamente conf iável.
Isso pode ser feito escolhendo-se um tamanho n de amostra grande o bastante
para se ter um intervalo de conf iança de determinado comprimento com uma
conf iança estabelecida.
O nível ou grau de conf iança é denotado por 100(1-  )%, para algum
número real . A estimativa por intervalos consiste em encontrar um in-
tervalo def inido por dois pontos extremos I e S, tal que a probabilidade de o
parâmetro  estar contido nesse intervalo seja igual a um determinado valor,
denotado por 1-  ,

P ( I £ q £ S) = 1 -  .

– 297 –
Exemplo 7.4: Se o intervalo de conf iança de uma pesquisa é 95%, isso signif ica
que, a cada 100 entrevistas feitas pela mesma metodologia, 95 apresentarão
os mesmos resultados. Quais são os valores das abscissas da variável aleatória
normal padronizada que representa o parâmetro dessa pesquisa?

Dos dados do problema, extraímos que 1-  = 0, 95 Þ  = 0,05 . A


f igura 7.1 mostra o intervalo de conf iança 1-  , que corresponde à área sob a
curva da fdp normal entre os dois pontos extremos I e S .

Figura 7.1: Intervalo de conf iança e a área sob a curva da distribuição normal entre
dois limites

Observe que, de acordo com a figura 7.1, utilizando a distribuição


normal padronizada, a probabilidade de q é menor do que ou igual a S,
P(q £ S) = P( z £ z 2 ). Veja ainda que, a partir da informação do intervalo de
conf iança, obtemos o valor da abscissa z 2 ao consultar a tabela 4.7. Para este
exemplo, obtemos o valor aproximado 1, 96 para z0,025 e – 1,96 para – z0,025,
que corresponde à probabilidade 0, 975. Cabe aqui uma explicação de como
se deve usar as tabelas 4.6 e 4.7 para esse tipo de solução: entra-se na tabela 4.7
com a probabilidade 1 – α/2 = 0,975 e se encontra z0,025 = 1,96 e, depois, entra-
se na tabela 4.6 com a probabilidade α/2 = 0,025 e se encontra – z0,025 = – 1,96.

De fato, não é possível obter uma estimativa perfeita da média da popu-


lação partindo de um número f inito de amostras de tamanho n . O melhor
que se pode fazer é fornecer limites probabilísticos. Assim, podemos determi-
nar dois limites, c1 e c2, tais que haja uma alta probabilidade, 1-  , que a mé-
dia da população, esteja no intervalo ( c1 , c2 ), ou seja, P( c1 £ m £ c2 ) = 1-  .
Utilizando os resultados do teorema do limite central e o conceito de
nível de conf iança, concluímos que:

– 298 –
s s
x - z 2 £ m £ x + z 2 ,
n n

s s
P( x - z 2 £ m £ x + z 2 ) = 1-  ,
n n
em que
x: média da amostra;
s: desvio padrão amostral;
n: número de elementos da amostra;
abscissas da normal padronizada.
z 2 e -z 2 :

Exemplo 7.5: Realizamos as medidas de temperatura em um forno, resultan-


do na média amostral x– = 152,5oC, com desvio padrão s = 3oC, perfazendo
n = 36 medidas. Qual é o intervalo que contém a temperatura média do for-
no com um nível de conf iança de 95%?

Para solucionar este exemplo, basta substituir os dados na expressão ob-


tida anteriormente com o valor de z0,025 igual a 1, 96 (vide tabela 4.7):
152, 5 − (1, 96) 3 = 151, 52,
 36

152, 5 + (1, 96) 3 = 153, 48.
 36
Portanto, podemos estabelecer com 95% de conf iança que a média das
medidas de temperatura situa-se no intervalo [151,52, 153,48] em oC.
Finalmente, apresentaremos uma fórmula para o cálculo do número de
simulações.

7.3.2 Fórmula para cálculo do número de simulações

Suponha que desejamos estimar a média de uma população com uma


precisão de ± e% e um grau de conf iança de 100(1-  )% . O número de
observações, ou simulações computacionais, n, requerido para alcançar esse
objetivo é dado pela fórmula (7.2)

– 299 –
2
æ100z 2 s ÷ö
n = çç ÷ . (7.2)
çè ex ÷÷ø

A precisão especif icada de e por cento ( e% ) para a simulação implica


que, em valores absolutos, o intervalo de conf iança deve ser:

[ x (1- e 100), x (1 + e 100)] .

Exemplo 7.6: Um experimento de laboratório avalia o tempo de resposta a


um impulso elétrico e desejamos saber quantas repetições das medidas serão
necessárias para obtermos o tempo de resposta com precisão de 0,5 segundo e
90% de conf iança. A média e o desvio padrão amostral são: x = 20 segundos
e s = 5 segundos.
A solução deste exemplo consiste nos seguintes passos.

90% = 100(1-  )% Þ  = 0,10 .


0, 5
A precisão requerida em termos percentuais é: e% = ´100% = 2, 5%.
20
Da tabela 4.7, com o auxílio de um simples procedimento de interpola-
ção dos valores, obtemos z0,05 = 1,645. Finalmente, substituímos os valores na
expressão (7.2),

2
æ100 z 2 s ÷ö æ100´1,645´5 ö2
ç
n=ç ÷ = çç ÷÷ @ 270,6 Þ n= 271 repetições.
çè ex ÷ø÷ çè 2, 5´ 20 ø÷

7.4 Simulação Monte Carlo aplicada à solução de problema determinístico

Apesar do método de Monte Carlo basear-se no uso de números ale-


atórios, os problemas que podem ser solucionados com essa técnica não
são, necessariamente, de natureza estocástica. Assim, equações diferen-
ciais e integrais podem ser resolvidas pela aplicação da simulação Monte
Carlo.
Seja a f igura 7.2, que mostra uma função f de uma variável x no in-
tervalo [a, b]. Por conveniência, para efeito de aplicação de Monte Carlo, o
gráf ico de f está inserido dentro de um retângulo de altura h.

– 300 –
A

Figura 7.2: Área sob a curva x  y = f ( x).

Do curso de Cálculo Diferencial e Integral sabemos que a integral da


função f em relação a x, calculada no intervalo [ a, b] , é numericamente igual
à área sob a curva e o eixo Ox neste intervalo,

A = ò f ( x) dx . (7.3)
a

Desejamos calcular a área sob a curva sem utilizar explicitamente a inte-


gral da relação (7.3), e obter essa área através do emprego da simulação Monte
Carlo. Uma vez conhecida a função – seja exponencial, senoidal, polinomial,
ou até formas muito complexas em que as técnicas de integração triviais não
são aplicáveis –, e os limites do intervalo, procedemos do seguinte modo:
• Sorteamos uma quantidade N muito grande de pontos (x, y) ao acaso, assim:
• Atribuímos um valor a x desde que a £ x £ b, por exemplo,
x ← a + (b – a) U(0, 1);
• Atribuímos um valor a y desde que 0 £ y £ h, por exemplo,
y ← h U(0, 1);
• Substituímos o valor de x na função f e comparamos o valor obtido
 y ≤ f ( x) → dentro
com o y atribuído anteriormente:  ;
 y > f ( x) → fora
• Contamos os pontos que caem dentro da área A. Suponhamos que o resul-
tado seja NA;

– 301 –
N
• Calculamos a relação A , que nos dá a frequência relativa de pontos
dentro da área A. N
A área do retângulo é ( b - a) h , base multiplicada pela altura. A rela-
NA
ção é a proporção da área do retângulo que está sob a curva. Portanto,
N
quando o número de pontos sorteados, N, tender ao inf inito, o valor AS da
fórmula (7.4) tenderá para a área procurada, ou seja, AS  A,

NA
AS = ( b − a) h . (7.4)
N

Efetuadas simulações em número elevado, conforme (7.2), o valor da


fórmula (7.4) tenderá ao valor da integral (7.3).
O método de Monte Carlo para solucionar a integração quando aplicado
da forma apresentada não produz resultados precisos, mesmo que o número
de simulações N seja elevado. Uma alternativa para tornar mais preciso o cál-
culo da integração descrita por (7.3) consiste em calcular a média dos valores
da função f no intervalo [a, b], que designaremos por f , tal que:

N
1
f=
N ∑ f ( x ),
i=1
i (7.5)

em que:

N: quantidade de pontos sorteados no intervalo;


xi: valor da abscissa obtida a partir da distribuição U(0, 1).

A conclusão do método alternativo para cálculo da integração se dá por


meio da expressão (7.6),

∫ a
f ( x) dx ≈ ( b − a) f . (7.6)

Para consolidar a aprendizagem dos conceitos e métodos apresentados


neste capítulo, propomos os exercícios indicados na próxima seção, que de-
vem ser resolvidos com o auxílio de um computador.

– 302 –
7.5 Exercícios propostos

1. Considere o algoritmo

Algoritmo 7.2: Sequência de números aleatórios uniformes pelo método con-


gruencial linear.
Dados: um número x0 denominado semente, as constantes inteiras k e m,
de modo que k < m, e o número n, que representa a quantidade de nú-
meros da sequência.
Para i = 1, , n -1
y ¬ kxi
xi+1 ¬ y - êëê my úûú m .

Nesse algoritmo, a notação êëê my úûú signif ica a parte inteira da divisão do nú-
mero y pelo número m. Programe esse algoritmo com as seguintes escolhas
respectivas: para x0, k e m: 2, 8 e 10. Ressalte-se que a escolha de m depende
da representação numérica do computador. Normalmente, é sugerida a fór-
mula m = 2b-1 + 1, sendo b o número de bits da máquina. Para x0 é sugerida
a escolha de um número ímpar. Para k uma escolha possível é k = 16.807 .
Outras escolhas para k são: k = 8.271 e k = 69.621. Se a máquina possuir 32
bits, então m= 2.147 .483.647 (JAIN, 1991).

2. Um problema comum em simulação Monte Carlo é determinar que modelo


de probabilidade representa de modo satisfatório uma distribuição empírica de
probabilidade. O teste em questão é conhecido como teste c (qui-quadrado).
2

O método compreende os seguintes passos: deve-se preparar um histograma


dos dados observados e comparar as frequências com as obtidas da função
densidade especif icada. Suponha-se que o histograma possua k células, e oi e
ei sejam as frequências observada e esperada da iésima célula, respectivamen-
te. O teste consiste em calcular o coef iciente D, conforme a expressão:

k
( oi - ei )2
D=å .
i =1 ei

Para um ajuste exato, D deve ser zero. Entretanto, devido à aleato-


riedade, D não será zero. É possível mostrar que D tem uma distribuição

– 303 –
qui-quadrado com k -1 graus de liberdade. A hipótese básica de que as
observações provêm da distribuição especif icada não pode ser rejeitada a um
nível de signif icância  se o coef iciente D é menor do que o c12- ; k-1. Os
valores da distribuição c12- ; k-1 para o intervalo de conf iança 1-  e k -1
graus de liberdade são dados na tabela 7.15, obtida de Lopes (1999).
Tabela 7.15: Abscissas da distribuição c que limitam áreas à sua direita
2

k -1 Probabilidades (áreas)
0,005 0,01 0,025 0,05 0,1 0,9 0,95 0,975 0,99 0,995
1 7,8794 6,634891 5,023903 3,841455 2,705541 0,015791 0,003932 0,000982 0,000157 0,000039271
2 10,59653 9,210351 7,377779 5,991476 4,605176 0,210721 0,102586 0,050636 0,02010 0,010024667
3 12,83807 11,34488 9,348404 7,814725 6,251394 0,584375 0,351846 0,215795 0,114832 0,071723452
4 14,86017 13,2767 11,14326 9,487728 7,779434 1,063624 0,710724 0,484419 0,297107 0,206983634
5 16,74965 15,08632 12,83249 11,07048 9,236349 1,610309 1,145477 0,831209 0,554297 0,411750815
6 18,54751 16,81187 14,44935 12,59158 10,64464 2,20413 1,63538 1,237342 0,872083 0,675733351
7 20,27774 18,47532 16,01277 14,06713 12,01703 2,833105 2,167349 1,689864 1,239032 0,989250877
8 21,95486 20,09016 17,53454 15,50731 13,36156 3,489537 2,732633 2,179725 1,646506 1,344402736
9 23,58927 21,66605 19,02278 16,91896 14,68366 4,168156 3,325115 2,7003389 2,087889 1,734911384
10 25,18805 23,20929 20,4832 18,30703 15,98717 4,865178 3,940295 3,246963 2,558199 2,155845379
11 26,75686 24,72502 21,92002 19,67515 17,27501 5,577788 4,574809 3,815742 3,053496 2,603201921
12 28,29966 26,21696 23,33666 21,02606 18,54934 6,303796 5,226028 4,403778 3,57551 3,073785001

Resolva: Mil números aleatórios são gerados utilizando-se o algoritmo 7.2, por
exemplo, com nível de signif icância  = 0,1. Podemos af irmar que os números
gerados são uniformemente distribuídos no intervalo (0,1)? Como sugestão para a
solução do problema, classif ique os números na forma de um histograma com 10
células a intervalos de 0,1, entre 0 e 1, e preencha, em seguida, a tabela 7.16.
Tabela 7.16: Planilha para a realização do teste c sobre mil números aleatórios
2

(observado - esperado)2
Célula observado, oi esperado, ei
esperado
1 100
2 100
3 100
4 100
5 100
6 100
7 100
8 100
9 100
10 100
Total 1000

– 304 –
3. Durante um certo período do ano de 2005, uma concessionária de veículos
fez inúmeras anotações sobre o número de carros vendidos diariamente. Os
100 resultados observados foram: para vendas diárias de 0, 1, 2, 3, 4, e 5 carros,
os números de ocorrências foram, respectivamente, 5, 10, 15, 30, 25, e 15. Do
ponto de vista da simulação Monte Carlo, os números aleatórios gerados são:
14, 74, 24, 87, 07, 45, 26, 66, 27 e 94. Qual deverá ser a projeção das vendas de
veículos nos próximos 10 dias? Esse resultado é conf iável? Justif ique.

4. Um avião de duas turbinas está em fase de testes. Suponhamos a probabilidade


de 10% de falha em uma das turbinas, ou seja, 0,10. A probabilidade de falha em
ambas as turbinas, neste caso, é pequena, e o avião, face às suas características
tecnológicas, tem plenas condições de voar com uma única turbina em funciona-
mento. Determine as probabilidades dos eventos:
• falhar ambas as turbinas (o avião cairia com certeza);
• falhar uma das turbinas;
• nenhuma das duas turbinas falhar.
Utilize a simulação Monte Carlo para resolver este problema. Após so-
lucionar este exercício através da simulação, resolva-o utilizando o modelo
binomial e compare os resultados.

5. Com o uso de uma linguagem de programação e um gerador de números


alea­tórios uniforme, elabore um programa para calcular a área interna da elipse
x 2 y2
cuja equação é 2 + 2 = 1 , através da simulação Monte Carlo, tomando a= 2 cm
a b
e b= 5 cm. Como sugestão de solução, analise a função de -a até a, considerando
2
f ( x) = b (1- xa2 ), e multiplique o resultado por 2. Embora a obtenção dessa área
não seja trivial por métodos elementares de cálculo, a expressão para o cálculo da
área é p a b. Portanto, o resultado esperado para esta simulação é 31,416 cm2.

6. De posse de um gerador de números aleatórios uniforme, U(0, 1), tendo em vis-


ta a definição de probabilidade em uma distribuição normal padronizada (vide
expressões (4.20) e (4.21)), mostre que P(Z  1,21) = 0,8869. Para solucionar este
exercício implemente o cálculo da integral da normal desde –  a 1,21 utilizando o
método de Monte Carlo.

7. Um posto de combustível possui apenas um equipamento de lavagem de veícu-


los para atender aos seus clientes. Anotações e observações da operação do sistema
foram realizadas durante um longo período, culminando nas seguintes conclusões:

– 305 –
a) Os clientes chegam para lavar seus carros com a distribuição de intervalos
entre chegadas mostrada na tabela 7.17.
b) O tempo para completar uma lavagem é distribuído uniformemente no
intervalo [8, 14] em minutos.
c) O proprietário do posto verif icou que, no sistema atual, as longas f ilas
aguardando pelo serviço têm levado a reclamações de clientes. Reconhe-
cendo que precisa melhorar o serviço, contratou os serviços de um consul-
tor da área de Pesquisa Operacional. Esse estudo servirá para orientar o
proprietário do estabelecimento sobre a melhor decisão a ser tomada.

Tabela 7.17: Intervalo entre chegadas, probabilidades, F( x)% e classes (etiquetas)

Intervalo entre
Ponto médio Probabilidade F( x)% Etiquetas
chegadas (minutos)
0,0 – 5,0 2,5 0,353
5,0 – 10,0 7,5 0,229
10,0 – 15,0 12,5 0,148
15,0 – 20,0 17,5 0,096
20,0 – 25,0 22,5 0,062
25,0 – 30,0 27,5 0,041
30,0 – 35,0 32,5 0,027
35,0 – 40,0 37,5 0,018
40,0 – 45,0 42,5 0,012
45,0 – 50,0 47,5 0,008
50,0 – 55,0 52,5 0,006

Efetue simulações pelo método de Monte Carlo para calcular as medidas


de efetividade do sistema de f ila única. O número adequado de simulações
deve ser determinado pelo próprio programador. Utilize a planilha mostrada
no quadro 7.1 a seguir, para orientar as simulações.
Após preencher a tabela 7.17 e o quadro 7.1, calcule:
1. As taxas médias de chegada e de atendimento – serviço – de clientes, res-
pectivamente, l e m;
2. As médias, que indiquem os valores das medidas de efetividade do siste-
ma, Wq, W, Lq e L;
3. A probabilidade de um cliente esperar na f ila;
4. O tempo médio livre do operador – ociosidade.

– 306 –
Quadro 7.1: Fluxo do serviço de lavagem de veículos no sistema atual

A B C D E F G H I
Ordem Intervalo Instante da Instante da Instante do Instante Tempo Tempo que o
Duração do
do entre chegada no entrada na início do da saída que o usuário usuário permanece
atendimento
usuário chegadas sistema f ila atendimento do sistema f ica na f ila no sistema
1
2
3
4
5
6

– 307 –
7
8
9
10
11
12
13
14
15
Médias
REFERÊNCIAS

ACKOFF, R. L.; SASSIENI, M. W. Pesquisa operacional. Rio de Janeiro:


LTC, 1977. 528p. (Col. Universitária de Administração).
ARENALES, M.; ARMENTANO, V.; MORABITO, R. e YANASSE, H.
Pesquisa operacional. 5a. reimpressão. Rio de Janeiro: Elsevier, 2007. 542p.
BAZARAA, M. S; JARVIS, J. J.; SHERALI, H. D. Linear programming and
network f  lows. 2. ed. New York: J. Wiley, 1997. 684p.
BAZARAA, M. S.; SHERALI, H. D.; SHETTY, C. M. Nonlinear
programming: theory and algorithms. 3. ed. New York: J. Wiley, 2006. 872p.
BILLINTON, R. Power system reliability evaluation. London: Gordon and
Breach, Science Publishers, 1970. 299p.
BLAND, R. G. New f inite pivoting rules for the simplex method. Mathematics
of Operations Research, v. 2, n. 2, p. 103-107, 1977.
BOLDRINI, J. L.; COSTA, S. R.; FIGUEIREDO, V. L.; WETZLER, H. G.
Álgebra linear. 3. ed. São Paulo: Harbra. 1986. 411p.
BREGALDA, P. F; OLIVEIRA, A. F.; BORNSTEIN, C. T. Introdução à
programação linear. 3. ed. Rio de Janeiro: Campus, 1988.
BRONSON, R. Pesquisa operacional. São Paulo: McGraw-Hill, 1985. 318p.
(Col. Schaum).
CAMPOS, F. F. Algoritmos numéricos. Rio de Janeiro: LTC, 2001. 383p.
CANCHO, V. G. Noções de estatística e probabilidade. Ouro Preto: Ed. da
Universidade Federal de Ouro Preto. 214p., 2004.
DANTZIG, G. B. Linear programming and extensions. Princeton: Princeton
University Press, 1963.
DANTZIG, G. B. Maximization of a linear function of variables subject to
linear inequalities. In: KOOPMANS, T. C. Activity analysis of production and
allocation. New York: J. Wiley, 1951. p. 339-347.

– 309 –
FOGLIATTI, M. C.; MATTOS, N. M. C. Teoria de filas. Rio de Janeiro:
Interciência, 2007. 290p.
FOULDS, L. R. Combinatorial optimization for undergraduates. Undergraduate:
texts in mathematics. New York: Springer-Verlag, 1984. 227p.
GARFINKEL, R. S.; NEMHAUSER, G. L. Integer programming. New
York: J. Wiley & Sons. 1972. 427p.
GOLDBARG, M. C; LUNA, H., P. L. Otimização combinatória e programação
linear: modelos e algoritmos. 2. ed. Rio de Janeiro: Campus, 2005. 536p.
GOLDFARB, D.; TODD, M. J. Linear programming. In: NEMHAUSER,
G. L. et al. (Ed.). Handbooks in OR&MS. North-Holland: Elsevier Science
Publishers; 1989. p. 73-170, v. 1, Chapter II.
GONZAGA, C. C. Algoritmos de Pontos Interiores para Programação Linear.
17o Colóquio Brasileiro de Matemática, IMPA/CNPq, Minicurso, 1989.
HILLIER, F. S.; LIEBERMAN, G. J. Introduction to operations research. 6. ed.
New York: McGraw-Hill, 1995. 998p.
JAIN, R. The art of computer systems performance analysis: techniques for
experimental design, measurement, simulation and modeling. New York: J.
Wiley, 1991. 685p.
LABORATÓRIO de Programação Linear: <http://www.ucg.br/Institutos/
LabPL/Index.html>.
LITTLE, J. D. C. A proof for the queuing formula: L=lW. Operations
Research, v. 9, n. 3, p. 383-387, 1961.
LOPES, P. A. Probabilidades e estatística. Rio de Janeiro: Reichmann &
Affonso. 1999. 174p.
LUENBERGER, D. Linear and monlinear programming. New York: Addison
Wesley, 2003. 491p.
MACHADO, H. V. Programação Linear. 10o Colóquio Brasileiro de
Matemática, Poços de Caldas/MG, 1975.
MACULAN, N.; FAMPA, M. H. C. Otimização linear. Brasília: Ed. UnB,
2006, 310p.
MACULAN, N.; PEREIRA, M. V. F. Programação linear. São Paulo: Atlas, 1980.
MENEZES, M. A. F. Programação Linear. Disponível em: <http://www2.ucg.
br/Institutos/LabPL/Arquivos/LivroPL_MAFM.pdf>. Acesso em: 20 jan. 2010.
METROPOLIS, N.; ULAM, S. The Monte Carlo Method. Journal of the
American Statistical Association. n. 44,p. 335-341, 1949.

– 310 –
MEYER, P. L. Probabilidade: aplicações à estatística. Tradução de Ruy de C.
B. Lourenço. Rio de Janeiro: Livros Técnicos e Científ icos, 1980. 391p.
MORETTIN, L. G. Estatística básica: probabilidade. 7. ed. São Paulo:
Pearson, 1999. v. 1. 210p.
MÜLLER, V. M. Um modelo de programação linear para um problema
agrícola. 2004. 56p. Monograf ia (Projeto Final de Curso) – Departamento de
Computação, Universidade Católica de Goiás, Goiânia. 2004.
NELSON, B. Stochastic modeling analysis and simulation. McGraw-Hill, 1995.
321p.
NELSON, R. Probability stochastic processes and queueing theory: the
mathematics of computer performance modeling. New York: Springer-
Verlag. 1995. 583p.
QIAO, S.; QIAO, L. A robust and eff icient algorithm for evaluating Erlang B
formula. McMaster University, Canada, 1998. Disponível em: <http://cas.
mcmaster.ca/~qiao>. Acesso em: 24 jun. 2006.
RAVINDRAN, A; PHILIPS, D. T.; SOLBERG, J. J. Operations research:
principles and practice. 2. ed. New York: J. Wiley, 1987.
RUGGIERO, M. A. G.; LOPES, V. L. da R. Cálculo numérico: aspectos
teóricos e computacionais. 2. ed. São Paulo: Makron Books, 1996. 406p.
SCHEINERMAN, E. R. Matemática discreta: uma introdução. Tradução de
Alfredo Alves de Faria. São Paulo: Pioneira Thomson Learning, 2003. 531p.
SHAMBLIN, J. E.; STEVENS JR.; G. T. Pesquisa operacional: uma abordagem
básica. Tradução de Carlos Roberto Vieira de Araújo. São Paulo: Atlas, 1989. 426p.
TAHA, H. A. Pesquisa operacional. Tradução de Arlete S. Marques; Revisão
técnica de Rodrigo A. Scarpel, 8. ed. São Paulo: Person/Prentice Hall, 2008. 359p.
TRIVEDI, K. S. Statistics whith reliability: queuing and computer science
applications. New York: J. Wiley, 2002. 830p.
ULAM, S.; RICHTMEYER, R. D.; NEUMANN, J. V. Statistical methods
in neutron diffusion. Los Alamos: Los Alamos Scientif ic Laboratory Report
LAMS-55A, 1947.
WICHMANN, B. A.; HILL, I. D. An eff icient and portable pseudo-random
number generator, Applied Statistics, Royal Statistical Society, 1982. 3p.
YOSHIDA, L. K. Programação linear: métodos quantitativos. São Paulo:
Atual, 1987. 168p.

– 311 –
Os textos conferem com os originais, sob responsabilidade dos autores.

ESTA PUBLICAÇÃO FOI ELABORADA PELA EDITORA DA


PUC GOIÁS E IMPRESSA NA DIVISÃO GRÁFICA E EDITORIAL
DA PONTIFÍCIA UNIVERSIDADE CATÓLICA DE GOIÁS.

Rua Colônia, qd. 240-C, lt. 26 a 29, Chácara C2, Jardim Novo Mundo
CEP. 74.713-200, Goiânia, Goiás, Brasil.
Secretaria e Fax (62) 3946-1814 – Livraria (62) 3946-1080

View publication stats