Escolar Documentos
Profissional Documentos
Cultura Documentos
Livro 2010
Livro 2010
net/publication/305729897
CITATIONS READS
11 16,365
2 authors, including:
SEE PROFILE
All content following this page was uploaded by Antonio C. Baleeiro Alves on 31 July 2016.
Reitor
Prof. Wolmir Therezio Amado
Conselho Editorial
Membros
Profa. Dra. Regina Lúcia de Araújo
Prof. Dr. Aparecido Divino da Cruz
Profa. Dra. Elane Ribeiro Peixoto
Profa. Dra. Heloisa Capel
Profa. Dra. Maria do Espírito Santo Rosa Cavalcante
Prof. Dr. Cristóvão Giovani Burgarelli
Ms. Heloísa de Campos Borges
Iúri Rincon Godinho
Maria Luisa Ribeiro
Ubirajara Galli
ANTÔNIO CÉSAR BALEEIRO ALVES
MARCO ANTONIO FIGUEIREDO MENEZES
INTRODUÇÃO À
PESQUISA OPERACIONAL
Copyright © by Antônio César Baleeiro Alves; Marco Antonio Figueiredo Menezes
Comissão Técnica
Félix Pádua
Editoração e Capa
Impresso no Brasil
Para minha esposa, Maria Abadia, e para os nossos filhos,
Flávio César, André Vinícius e Pedro.
Antônio César Baleeiro Alves
Prefácio...................................................................................................................11
IV Distribuições de Probabilidade....................................................................147
4.1 Probabilidade...........................................................................................148
4.1.1 Probabilidade e frequência relativa..............................................152
4.2 Variável aleatória discreta......................................................................153
4.2.1 Esperança matemática e variância de uma variável
aleatória discreta.............................................................................156
4.3 Distribuições de probabilidade de variáveis aleatórias discretas.......157
4.3.1 Distribuição hipergeométrica........................................................157
4.3.2 Distribuição binomial.....................................................................159
4.3.3 Distribuição uniforme discreta.....................................................161
–8–
4.3.4 Distribuição de Poisson..................................................................163
4.4 Variável aleatória contínua.....................................................................166
4.5 Distribuições de probabilidade de variáveis aleatórias contínuas.....170
4.5.1 Distribuição normal.......................................................................171
4.5.2 Distribuição retangular ou uniforme...........................................179
4.5.3 Distribuição exponencial...............................................................180
4.5.4 Distribuição de Erlang...................................................................182
4.6 Teorema do limite central......................................................................184
4.7 Exercícios propostos................................................................................188
V Processos de Markov.....................................................................................191
5.1 Def inição e caracterização de processos de Markov...........................191
5.2 Relevância dos processos de Markov e possíveis aplicações...............193
5.3 Processos de Markov de tempo discreto...............................................194
5.3.1 Matriz de transição.........................................................................200
5.3.2 Cadeias de Markov.........................................................................202
5.3.3 Classificação das cadeias de Markov............................................203
5.3.4 Análise de cadeias finitas irredutíveis
com estados aperiódicos.................................................................211
5.3.5 Análise de cadeias finitas com estados absorventes....................216
5.3.6 Tempos médios de recorrência......................................................223
5.4 Processos de Markov de tempo contínuo.............................................227
5.4.1 Cadeias de Markov homogêneas de tempo contínuo.................231
5.5 Exercícios propostos................................................................................243
–9–
6.4.1 Sistema de filas M / M / 1...............................................................259
6.4.2 Sistema de filas M / M / s................................................................268
6.4.3 Sistema de filas M / M / 1 / C.........................................................272
6.5 Relevância da teoria de filas em sistemas de comunicação.................279
6.6 Exercícios propostos................................................................................280
Referências...........................................................................................................309
– 10 –
PREFÁCIO
– 11 –
No Capítulo I, tratamos sobre o processo de modelagem. Em particular,
sobre a etapa de formulação de problemas. Formulamos problemas de Pro-
gramação Linear, Programação Linear Inteira e de Programação Não Linear,
e discutimos modelos estocásticos.
No Capítulo II, tratamos sobre matrizes e sistemas lineares e, no Capí-
tulo IV, sobre distribuições de probabilidade. Ambos possuem o caráter de
revisão de conteúdos para facilitar a compreensão dos temas abordados nos
capítulos de soluções de modelos.
Introduzimos modelos determinísticos no Capítulo III, em que trata-
mos sobre Programação Linear, enfatizando os seus fundamentos primal e
dual, e o método simplex. Omitimos o método de pontos interiores que se
mostra eficiente – algoritmos polinomiais – para os problemas de Programa-
ção Quadrática, Complementaridade Linear e Programação Semidefinida,
todos sob certas hipóteses. Todavia, fazemos referência ao Laboratório de
Programação Linear (LabPL), que possui, além da família de métodos de
pontos interiores, várias outras famílias de métodos para resolver problemas
de Programação Linear.
Nos demais capítulos, são apresentados modelos probabilísticos e simu-
lação. No Capítulo V, tratamos sobre processos de Markov com vistas à sua
aplicação aos sistemas de filas. Os sistemas de filas markovianos são estudados
no Capítulo VI, e a simulação de Monte Carlo, no Capítulo VII.
A notação utilizada no livro é independente por capítulo. Isto quer di-
zer, por exemplo, que vetores podem aparecer em parênteses em um capítulo,
ou em colchetes em outro; S, como um conjunto qualquer em um capítulo,
ou como um espaço amostral em outro; A, como uma matriz qualquer em
um capítulo, ou como um conjunto de eventos; Z+, o conjunto dos números
inteiros não negativos em um capítulo, ou Z, como uma variável aleatória da
distribuição normal padronizada em outro; e, como o número de Euler em
um capítulo, ou como um número qualquer em outro etc.
Este livro teve seus primeiros manuscritos preparados há vários anos,
tendo iniciado por volta de 1999. De lá para cá demos vários cursos baseados
em vários livros como referências básicas. Assim, vários exemplos foram re-
tirados dessas referências e alterados, melhorados. Criamos outros a partir
desses, desenvolvemos novos. Dessa forma, no que nos foi possível, fizemos
referência in loco dos exercícios que são de autoria de colegas e, na seção 7.2,
em particular, referenciamos o livro que apresenta a mesma sequência de ra-
ciocínio e abordagem.
– 12 –
Iniciamos a escrita deste livro propriamente dita através de um projeto
entre Baleeiro, Marco e Francisco José Pfeilsticker Zimmermann. Este estu-
dou e nos apresentou o artigo de Wichmann e Hill sobre a geração de núme-
ros aleatórios e foi também quem revisou e discutiu as primeiras versões do
ainda manuscrito. Agradecemos com carinho ao nosso colega e amigo Zim-
mermann pelas contribuições e pelo estímulo, pois, mesmo em Moçambique,
ainda pergunta sobre o livro.
Em particular, Baleeiro agradece ao Professor Fujio Sato, pelas primei-
ras lições de Monte Carlo, e também ao Professor Rubén Augusto Romero
Lázaro, pelas excelentes discussões em Otimização.
Agradecemos aos colegas professores: Edir Lopes de Oliveira, José Elmo
de Menezes, Leizer de Lima Pinto, Rosângela Nunes Almeida de Castro e
Thyago Carvalho Marques pelas contribuições valiosas. Não poderíamos nos
esquecer de reconhecer o profissionalismo com que Nilton José Rodrigues e
Félix Pádua trataram a revisão e a diagramação do texto e ao coordenador
geral da Editora da PUC Goiás, o professor Gil Barreto Ribeiro pela atenção.
Um especial agradecimento a nossos alunos de turmas de outrora que, ao ex-
ternarem suas críticas e dúvidas, trouxeram importantes contribuições.
Os Autores
– 13 –
I
Modelagem em Pesquisa Operacional
– 15 –
blema específ ico de PO. A compreensão e a def inição do problema são de
fundamental importância para o processo de modelagem.
O primeiro passo para a resolução de um problema de PO é a formu-
lação, que consiste em traduzir a realidade empírica para sentenças lógicas e
dados objetivos, a partir dos quais é possível o estabelecimento de um modelo
matemático. É aí que devemos decidir – julgamento humano – os aspectos do
sistema real que devemos incorporar ao modelo e os que podem ser ignora-
dos, as suposições que podem ser consideradas e as que podem ser descarta-
das. Essa tradução está sujeita a erros e falhas de comunicação. Também não
existem técnicas precisas, capazes de permitir o estabelecimento do modelo
de um problema.
O segundo passo é a dedução do modelo, isto é, a sua análise e resolução
através de algoritmos específ icos. Essa solução, atenta aos métodos numéricos
em computação, sugere uma tomada de decisão. Para a sua sustentação, recor-
remos ao terceiro passo, que é a interpretação de uma solução do modelo para
uma solução do sistema real. Se não for validado, o modelo deve ser reformu-
lado, e assim por diante. A esse processo dá-se o nome de modelagem. Para
maiores detalhes sobre o processo de modelagem, recomendamos Ravindran,
Phillips & Solberg (1987).
A seguir, estudaremos o primeiro passo do processo, ou seja, a formula-
ção em Programação Matemática e exemplos de modelos probabilísticos, sem
nos preocuparmos com a solução ou a validação.
– 16 –
1.2.1.1 O problema
Máximo 80
(hectares) (hectares)
– 17 –
responde ao mínimo ou ao máximo de sacas que deseja colher de um certo
tipo de produto, ou ao mínimo ou ao máximo de terra (em hectares) que
deseja plantar.
1.2.1.2 Um modelo
– 18 –
x11 + x12 + x13 + x14 ≤ 10
x21 + x22 + x23 + x24 ≤ 18
x31 + x32 + x33 + x34 ≤ 22
x41 + x42 + x43 + x44 ≤ 49
x51 + x52 + x53 + x54 ≤ 51
x61 + x62 + x63 + x64 ≤ 54
x71 + x72 + x73 + x74 ≤ 77
x81 + x82 + x83 + x84 ≤ 69.
Consideremos, ainda, que não pode haver área negativa para plantio.
Para isso, temos:
xij ≥ 0, i = 1, 2, , 8 e j = 1, 2, 3, 4 .
Finalmente, devemos considerar as restrições impostas pelo proprietário
da fazenda – produção para atendimento de encomenda, para pagamento de
empréstimo e adequação às condições de qualidade do solo e risco de perdas
em relação ao feijão. Assim, obtemos as seguintes desigualdades:
50 x11 + 48 x21 + 48 x31 + 50 x41 + 35 x51 + 32 x61 + 35 x71 + 38 x81 ≥ 2500,
130 x12 + 120 x22 + 140 x32 + 100 x42 + 70 x52 + 65 x62 + 68 x72 + 95 x82 ≥ 3000 ,
x13 + x23 + x33 + x43 + x53 + x63 + x73 + x83 ≥ 150 e
x14 + x24 + x34 + x44 + x54 + x64 + x74 + x84 ≤ 80.
– 19 –
sujeito a: x11 + x12 + x13 + x14 ≤ 10,
x21 + x22 + x23 + x24 ≤ 18,
x31 + x32 + x33 + x34 ≤ 22,
x41 + x42 + x43 + x44 ≤ 49,
x51 + x52 + x53 + x54 ≤ 51,
x61 + x62 + x63 + x64 ≤ 54,
x71 + x72 + x73 + x74 ≤ 77,
x81 + x82 + x83 + x84 ≤ 69,
130 x12 + 120 x22 + 140 x32 + 100 x42 + 70 x52 + 65 x62 + 68 x72 + 95 x82 ≥ 3000
xij ≥ 0, i = 1, 2, , 8 e j = 1, 2, 3, 4.
1.2.2.1 O problema
– 20 –
Tabela 1.2: Dados gerais do problema
Projetos
Pessoas
1 2 3 4
A 5 6 7 4
B 6 5 8 4
C 6 8 9 5
D 7 6 6 3
1.2.2.2 Um modelo
– 21 –
4
∑x
j =1
ij = 1 , i = 1, 2, 3, 4;
e que cada projeto só pode ser realizado por uma única pessoa, isto é,
∑x
i=1
ij = 1 , j = 1, 2, 3, 4.
sujeito a: 4
∑x
j =1
ij = 1 , i = 1, 2, 3, 4
∑x
i=1
ij = 1 , j = 1, 2, 3, 4
xij ∈{0, 1} , i = 1, 2, 3, 4 e j = 1, 2, 3, 4.
– 22 –
1.2.3 Um problema de amplif icador de tensão
1.2.3.1 O problema
– 23 –
A tensão vab é igual a 1 × 106 i , isto é, a queda de tensão no resistor de
1 MΩ . A tensão v da fonte está restrita aos limites inferior e superior, res-
pectivamente, de 340 mV e 500 mV . O parâmetro α deve ser no mínimo
igual a 120.
1.2.3.2 Um modelo
α vab = 5ic + vc .
– 24 –
Substituindo vc = 10 ic e vab = 1 × 106 i na última igualdade e desenvol-
vendo, obtemos
106 α i − 15ic = 0.
0, 34 ≤ v ≤ 0, 50
e
12 ≤ vc = 10 ic ≤ 30 .
1, 2 ≤ ic ≤ 3.
106 α i − 15ic = 0
1, 2 ≤ ic ≤ 3
0, 34 ≤ v ≤ 0, 50
α ≥ 120 .
– 25 –
usando-se a linguagem da probabilidade. O termo “dinâmico” signif ica que a
variável tempo geralmente está envolvida no processo de formulação. A prin-
cipal característica de um problema estocástico é que, associado a pelo menos
uma de suas variáveis, temos um número que mede o grau de incerteza – ou
de certeza – da ocorrência do valor da variável, dado pela probabilidade.
A formulação em processos estocásticos normalmente compreende a
elaboração de sentenças lógicas, a interpretação de dados estatísticos sobre o
problema e a identif icação da distribuição de probabilidade que governa as
variáveis. Depois de construído, o modelo pode admitir soluções analíticas.
Em casos de problemas complexos, a simulação computacional tem-se mos-
trado a melhor alternativa.
No Capítulo IV, serão estudadas distribuições de probabilidades. Assim,
o passo da formulação será substituído pela descrição em linguagem natural
para processos de Markov (Capítulo V), sistemas de f ilas de espera (Capítulo
VI) e simulação Monte Carlo (Capítulo VII).
– 26 –
nhados em f ila. O usuário que chega ao estabelecimento ou aguarda aten-
dimento, se todos os atendentes estiverem ocupados, ou é prontamente
atendido em caso contrário. Após receber o serviço, o usuário deixa o esta-
belecimento.
– 27 –
O gerente dessa companhia deseja diversif icar os investimentos para ob-
ter o máximo de rendimento possível. Dado o elemento de risco envolvido,
o gerente restringiu a quantia a ser aplicada em I1 a não mais que a soma das
quantias aplicadas em I3 , I4 e I5. O total a ser aplicado em I2 e I5, em con-
junto, deve ser pelo menos igual à quantia aplicada em I3. O I2 deve estar
limitado a um nível que não exceda à quantia aplicada em I4 .
É preciso determinar a alocação ótima de investimento entre as cinco
categorias, de forma que o retorno ao f inal do ano seja o máximo possível.
Formular o problema.
– 28 –
Os seguintes critérios devem ser respeitados no processo de decisão:
deverá ser escolhida apenas uma cidade para a construção da fábrica e do
armazém; em unidades monetárias, o investimento requerido na construção
de uma fábrica em Catalão é de 48 e em Rio Verde é de 24. O investimento
requerido na construção de um armazém em Catalão é de 40 e em Rio Verde
é de 16. A empresa dispõe-se a investir no máximo 80 unidades monetárias
nas construções. Formular o problema de modo a maximizar o retorno do
investimento.
– 29 –
“reticulada” (como se o deslocamento fosse pelas ruas de uma cidade), isto é,
se x1 e x2 são as coordenadas da nova máquina, então a distância entre a nova
máquina e outra instalada na posição (y1 y2)T é dada por: |x1 – y1| + |x2 – y2|.
– 30 –
II
Matrizes e Sistemas Lineares
2.1 Matrizes
– 31 –
a11 a12 a13 a1 j a1n
a a22 a23 a2 j a2 n
21
A = [ aij ] = . (2.1)
ai1 ai 2 ai 3 aij ain
am1 am2 am3 amj amn
1 0 0 0 0
0 1 0 0 0
I= . (2.2)
0 0 0 1 0
0 0 0 0 1
– 32 –
todo i > j , A é chamada de matriz triangular superior. Se A for uma matriz
quadrada com aij = 0 para todo i < j , A recebe o nome de matriz triangular
inferior. A seguir, estão mostrados exemplos de matrizes triangulares 4 × 4,
sendo A uma matriz triangular superior e B uma matriz triangular inferior.
1 −1 4 −1 1 0 0 0
0 0 1 3 0 3 0 0
A= e B= . (2.3)
0 0 1 12 1 2 −1 0
0 0 0 2 3 1 4 3
v1
v
2
v= . (2.4)
vi
vm
Em (2.4) tem-se uma matriz coluna, que é denotada pelo vetor v, com
suas componentes v1 , v2 , , vi , , vm.
Quanto à quantidade de elementos não nulos que uma matriz apresen-
ta, é usual designar por matriz densa aquela em que a maior parte dos seus
elementos é diferente de zero. As matrizes que apresentam grande quanti-
dade de elementos nulos são conhecidas como matrizes esparsas. Matrizes
que aparecem em modelos de problemas de grande porte do mundo real
normalmente são esparsas. Por exemplo, em certos estudos da área de En-
genharia Elétrica, matrizes de redes elétricas reais apresentam 99,5% de ele-
mentos nulos.
Uma peculiaridade interessante de matrizes é que essas estruturas de
dados admitem operações de adição, subtração e multiplicação, praticamente
– 33 –
como se faz com números; todavia, observam-se certas restrições para a reali-
zação dessas operações.
3 −1 8 1
1 1
A= 0 e B = −1 .
2 4
−5 1 20 5
A adição A + B resulta na matriz C, conforme indicamos a seguir:
A+ B= C
3 −1 8 1 3 + 8 −1 + 1 11 0
1 1 1 1 3
0 + −1 = 0 −1 + = −1 .
2 4 2 4 4
5 −5 + 20 1 + 5 15 6
−5 1 20
Observe que, a partir dos cálculos anteriores, a adição foi efetuada elemento
a elemento, somando-se apenas elementos que ocupam a mesma posição.
– 34 –
Def inição 2.2 (Subtração): Sejam aij e bij , respectivamente, os elementos ge-
néricos das matrizes A e B, tal como estabelece a def inição 2.1. Desde que as
matrizes A e B tenham a mesma ordem, m × n, a matriz obtida da subtra-
ção, A – B, é uma matriz também de ordem m × n, tal que seus elementos são
obtidos ao subtrair-se o elemento bij do elemento aij . Portanto, a subtração
A – B resulta em uma matriz designada por C, de modo que:
A− B= C
3 −1 8 1 3−8 −1 − 1 −5 −2
1 1 1 1 1.
0 − −1 = 0 − ( −1) − = 1
2 4 2 4 4
5 −5 − 20 1 − 5 −25 −4
−5 1 20
* * * * * *
* * * = * *
[ ] * * * * *
* *
* * * * * *
3 ×1 1× 2 → 3 × 2 3× 3 2× 2
possível impossível
Figura 2.1: Exemplos de situações de multiplicação de matrizes
– 35 –
Def inição 2.3 (Multiplicação de duas matrizes): Dadas duas matrizes A, m × n, e
B, n × q, observada a condição de existência, a multiplicação de A por B resulta
em uma matriz designada por C, de modo que:
( A, B) AB = C = [ cil ],
em que
n
cil = ∑a
k =1
ik bkl , i = 1, 2, , m e l = 1, 2, , q.
0 0 1
A= e B = ,
−1 1 1
0 0 1 0 × 1 + 0 × 1 0
AB = = = ,
−1 1 1 −1 × 1 + 1 × 1 0
A AT = C = [ cij ], (2.5)
em que
cij = a ji ,
– 36 –
trica e antissimétrica possuem as propriedades expressas em (2.6) e em (2.7),
respectivamente,
A = AT (2.6)
e
A = − AT . (2.7)
( AB)T = BT AT .
Com efeito,
T
a11 a12 a1n b11 b12 b1q
a b b22 b2 q
a22 a2 n 21 =
( AB) =
T 21
am1 am2 amn bn1 bn2 bnq
T
n n n
∑
a1k bk1 ∑a 1 k bk 2 ∑ a1k bkq
k =1 k =1 k =1
n n n
∑
a b
= k =1
2 k k1 ∑a
k =1
2 k bk 2 ∑
k =1
a2 k bkq
=
n n n
a b amk bkq
∑ mk k1 ∑a mk bk 2 ∑
k =1 k =1 k =1
n n n
∑
a1k bk1 ∑ a2 k bk1 ∑a mk bk1
k =1 k =1 k =1
n n n
∑
a b
= k =1
1k k 2 ∑a
k =1
2 k bk 2 ∑
k =1
amk bk 2
=
n n n
a b amk bkq
∑ 1 k kq ∑a 2 k bkq ∑
k =1 k =1 k =1
– 37 –
n n n
∑
bk1 a1k ∑ bk1 a2 k ∑b k1 amk
k =1 k =1 k =1
n n n
∑
b a
= k =1
k 2 1k ∑b
k =1
k 2 a2 k ∑
k =1
bk 2 amk
=
n n n
b a bkq amk
∑ kq 1 k ∑b kq a2 k ∑
k =1 k =1 k =1
= BT AT.
A multiplicação de um número real por matrizes é def inida por:
(α , A) α A = α [ aij ] = [α aij ].
2.1.2 Determinante
det : Cn → ℜ
A det( A),
a) n = 1,
A = [ a11 ] ⇒ det( A) = a11 .
b) n = 2,
– 38 –
a11 a12
A= ⇒ det( A) = a11 × a22 − a12 × a21 .
a21 a22
c) n ≥ 3 ,
n
A = [ aij ] ⇒ det( A) = ∑ a ( −1)
j =1
ij
i+ j
Mij , para um dado i com i = 1, 2, , n,
1 −2 3
A = 2 1 −1 .
−2 −1 2
Calcule det( A) .
1 −2 3
det( A) = det 2 1 −1 =
−2 −1 2
∴ det( A) = 5.
– 39 –
para uma matriz de ordem 2, são necessárias 2 multiplicações. Para uma ma-
triz de ordem 3, é preciso calcular 3 determinantes de ordem 2 e multiplicar
esses determinantes pelos elementos da linha escolhida, perfazendo, neste caso, 9
multiplicações, e assim por diante. A fórmula recursiva pn=n(pn–1+1), iniciando
com p1=0, reproduz a quantidade requerida de multiplicações no cálculo do
determinante de uma matriz de ordem n, quando aplicamos a def inição 2.4.
Por exemplo: para matrizes de ordem 1, 2, 3, 4 e 5, obtemos p1=0, p2=2, p3=9,
p4=40, p5=205, respectivamente. O número de multiplicações é muito elevado
para matrizes de porte médio e, por esta razão, qualquer algoritmo que envol-
va o cálculo de determinantes não é praticável em implementações computa-
cionais. Por exemplo, o cálculo do determinante de uma matriz 10×10 exigirá
6.235.300 multiplicações. Para efeito de comparação, a tabela 2.1 apresenta
valores de pn e de n!.
Tabela 2.1: Comparação entre valores do número de multiplicações requeridas no
cálculo do determinante e o fatorial da ordem da matriz
Ordem da matriz, n pn n!
1 0 1
2 2 2
3 9 6
4 40 24
5 205 120
6 1.236 720
7 8.659 5.040
8 69.280 40.320
9 623.529 362.880
10 6.235.300 3.628.800
– 40 –
b) det( A) = det( AT ) .
A1 A2 A3 A4
4 −1 2
A = 1 4 1 .
3 3 2
– 41 –
Determine as submatrizes principais líderes de A e os respectivos deter-
minantes.
A1 = [4],
o seu determinante é
det( A1 ) = 4.
4 −1
A2 = ,
1 4
o seu determinante é
4 −1 2
A3 = A = 1 4 1 .
3 3 2
A def inição 2.5 conduz a outras def inições que são muito úteis em Pro-
gramação Matemática Não Linear, que pode ser considerado um ramo da
Pesquisa Operacional. Uma dessas def inições é dada a seguir.
– 42 –
Def inição 2.6 (Matriz def inida positiva): Seja A uma matriz de números
reais, quadrada, n × n , e simétrica. A matriz A é def inida positiva quando
para todo x ∈ℜ n, com x não nulo, xT Ax > 0.
a11 a12 x1
xT Ax = [ x1 x2 ] = a x 2 + a22 x22 + 2β x1 x2 > 0, sendo a12 = a21 =b.
a21 a22 x2 11 1
2 1
Exemplo 2.3: Mostre que a matriz A = é def inida positiva.
1 1
Suponhamos um vetor não nulo, x = [x1 x2]T, isto é, se uma das compo-
nentes for igual a zero, a outra terá de ser diferente de zero. Então,
2 1 x1
xT Ax = [ x1 x2 ] x = 2 x1 + x2 + 2 x1 x2 .
2 2
1 1 2
Completando os quadrados, obtemos:
– 43 –
No estudo de funções quadráticas de ordem n, a def inição de matriz
def inida positiva encontra muitas aplicações interessantes. A seguir são dados
dois exemplos para ilustrar essas aplicações.
2 1 x1
f : ℜ2 → ℜ , f ( x1 , x2 ) = [ x1 x2 ] = 2 x1 + x2 + 2 x1 x2 .
2 2
1 1 x2
– 44 –
−1 1 x1
f : ℜ2 → ℜ2 , f ( x1 , x2 ) = [ x1 x2 ] x = − x1 − 4 x2 + 2 x1 x2 .
2 2
1 −4 2
Escrevemos a função completando os quadrados, o que comprova que
ela será sempre negativa, independentemente dos valores que x1 e x2 assu-
mirem, para x 2 não nulo,
– 45 –
A seguir, trataremos da obtenção da inversa de uma matriz.
AA−1 = A−1 A = I.
1 0 b11 b12 1 0
AB = I ⇒ = ⇒
0 2 b21 b22 0 1
b11 b12 1 0
⇒ = .
2b21 2b22 0 1
Logo,
1 0 1 0 1 0
BA = 1 0
= =I.
0 2 2 0 1
Então,
1 0
A−1 = B =
0
1
2
– 46 –
A matriz A = [0] não é invertível, uma vez que para AA−1 = 0 A−1 ≠ I = 1,
portanto, não existe A–1.
Consideremos as matrizes A , n × n , e B , n × n , e A–1 e B−1 as matrizes
inversas de A e B, respectivamente. Então,
e, de maneira análoga,
Além disso,
( A−1 ) −1 = A.
Com efeito,
A−1 A = I = A A−1.
– 47 –
∆11 ∆12 ∆1n
∆ ∆ 22 ∆ 2 n
A= .
21
∆ n1 ∆ n2 ∆ nn
adj A = AT .
1 1
A= .
2 1
Temos que
∆11 = ( −1)1+1 M11 = 1 × det(1) = 1,
1 −2
A= .
−1 1
Portanto,
1 −1
adj A = AT = .
−2 1
– 48 –
O próximo resultado relaciona determinante e matriz adjunta.
A adj A = det( A) I .
Teorema 2.2: Uma matriz quadrada A é invertível se, e somente se, det( A) ≠ 0.
Ax = b (2.10)
– 49 –
uma vez que A é invertível e, consequentemente,
adj A b AT b
x= = , (2.12)
det( A) det( A)
Desenvolvendo (2.12),
∆11 ∆ 21 ∆ n1 b1
∆ 22 ∆ n2 b2
1 ∆12 ,
x=
det( A)
∆1 n ∆ 2 n ∆ nn bn
para j = 1, 2, , n,
n n
1 1
xj = ∑
( ∆ ij bi ) =
det( A) i =1 det( A) i =1 ∑
( bi ( −1) i + j Mij ) .
– 50 –
de sistemas por Cramer, estudados nas seções anteriores, nos sentimos compe-
lidos a estudar formas mais ef icientes de executar essas operações.
Os métodos computacionalmente mais ef icientes que os estudados até
agora baseiam-se em operações elementares sobre matrizes, que serão abor-
dados a seguir.
1 0 1 0
4 −1 l ↔ l ~ −3 4 .
2 3
−3 4 4 −1
1 0 1 0
4 −1 l ← −3 × l ~ −12 3 .
2 2
−3 4 −3 4
1 0 1 0
~ 7 −1 .
4 −1 l2 ← l2 + 3 × l1
−3 4 −3 4
– 51 –
Ao utilizarmos as operações elementares, podemos fazê-lo com um pro-
pósito previamente def inido e, neste caso, haverá regras a serem cumpridas.
Por exemplo, o objetivo pode ser verif icar se dois, dentre três vetores dados,
são linearmente independentes. Neste caso, as operações serão usadas para
fazer emergir vetores canônicos, conforme mostra o exemplo 2.8.
2 1 1
u = 4 , v = 2 e w = 5 .
6 3 4
2 1 1
4 2 5 .
6 3 4
2 1 1 l1 ← 12 l1 1 1
2
1
2
4 2 5 ~ 4 2 5 ,
6 3 4 6 3 4
1 1
2
1
2 1 1
2
1
2
4 2 5 l2 ← l2 − 4 × l1 ~ 0 0 3 .
6 3 4 l3 ← l3 − 6 × l1 0 0 1
– 52 –
vetores canônicos nos lugares de suas colunas. Aproveitando os cálculos já
realizados, temos:
1 1
2
1
2 1 1
2
1
2
0 0 3 l2 ← 13 l2 ~ 0 0 1 ,
0 0 1 0 0 1
1 1
2
1
2 l1 ← l1 − 12 l21 1
2 0
0 0 1 ~ 0 0 1 .
0 0 1 l3 ← l3 − l2 0 0 0
2 1
4 = α 5 ,
6 4
– 53 –
Encontre uma matriz B linha equivalente a A.
1 0 4 −1
4 −1 ~ −1 0 .
−3 4 −1 4
8 3 0 2
0 0 0 0
1 2 5 1
– 54 –
não é escalonada, porque o primeiro elemento não nulo da primeira linha não
está à esquerda do primeiro elemento não nulo da terceira linha e, também,
porque a segunda linha é nula enquanto a terceira não o é.
−1 2 3 0 1
A = 4 −1 1 4 2 .
3 1 4 4 3
−1 2 3 0 1 −1 2 3 0 1
4 −1 1 4 2 l ← l + 4 × l ~ 0 7 13 4 6 ,
2 2 1
3 1 4 4 3 3 1 4 4 3
e l3 ← l3 + 3 × l1,
−1 2 3 0 1 −1 2 3 0 1
0 7 13 4 6 ~ 0 7 13 4 6 .
3 1 4 4 3 l3 ← l3 + 3 × l1 0 7 13 4 6
−1 2 3 0 1
0 7 13 4 6 .
0 0 0 0 0
A matriz
−1 2 3 0 1
0 7 13 4 6
0 0 0 0 0
– 55 –
Muitas vezes, é preciso utilizar a operação de permutação de linhas da
matriz para obtermos a forma escalonada. Vejamos o exemplo a seguir.
1 4 2
A = −2 −8 −4 .
3 12 10
1 4 2
0 0 0 .
3 12 10
Permutamos as linhas 2 e 3 ( l2 ↔ l3 ):
1 4 2
3 12 10 .
0 0 0
– 56 –
Exemplo 2.12: Obtenha a forma escalonada reduzida da matriz
−1 2 3 0 1
A = 4 −1 1 4 2 .
3 1 4 4 3
−1 2 3 0 1 l1 ← −1 × l1 1 −2 −3 0 −1
0 7 13 4 6 l ← 1 × l ~ 0 1 13 4 6 .
2 7 2 7 7 7
0 0 0 0 0 0 0 0 0 0
1 −2 −3 0 −1 l1 ← l1 + 2 × l2 1 0 5
7
8
7
5
7
0 1 13 6 ~ 0 1
7.
4 13 4 6
7 7 7 7 7
0 0 0 0 0 0 0 0 0 0
A matriz
1 0 5
7
8
7
5
7
0 1 13 4 6
7 7 7
0 0 0 0 0
– 57 –
pendência linear e subespaços de uma matriz. Além disso, considere a trans-
formação linear def inida pela matriz A ∈ℜ m× n. Dois subespaços importantes
do espaço vetorial ℜ n estão associados com essa transformação: o espaço nulo
de A, def inido por
N ( A) = { x ∈ℜ n ; Ax = 0}
R( AT ) = { x ∈ℜ n ; x = AT z, z ∈ℜ m }.
2 3 −1
A = 4 −2 2 .
6 1 1
2 3 −1 2 3 −1
4 −2 2 l ← l − 2 × l ~ 0 −8 4 ~
2 2 1
6 1 1 6 1 1 l3 ← l3 − 3 × l1
– 58 –
2 3 −1 2 3 −1
~ 0 −8 4 ~ 0 −8 4 .
0 −8 4 l3 ← l3 − 1 × l2 0 0 0
T : Vn (ℜ) → Vm (ℜ),
tal que
T ( x) = Ax .
Imagem T = { Ax ; x ∈ Vn (ℜ)}.
– 59 –
Exemplo 2.14: Determine os vetores da base do espaço coluna da matriz
1 −2 1 0 1
A = −1 1 0 −2 2 .
2 0 3 −2 4
1 −2 1 0 1 1 0 0 2 − 11 5
−1 1 0 −2 2 ~ 0 1 0 0 − 1 .
5
2 0 3 −2 4 0 0 1 −2 14 5
– 60 –
com linhas efetuada na matriz identidade, signif ica que: para i ≠ j , α ∈ℜ,
α ≠ 0 , li ↔ l j temos li ↔ l j ; li ← α li temos li ← α1 li; li ← li + α l j temos
li ← li − α l j .
1 0 0 l1 ↔ l2 0 1 0
I = 0 1 0 ~ 1 0 0 = E1,
0 0 1 0 0 1
1 0 0 1 0 0
I = 0 1 0 ~ 0 1 0 = E2
0 0 1 l3 ← 9 l3 0 0 9
e
1 0 0 l1 ← l1 + l2 1 1 0
I = 0 1 0 ~ 0 1 0 = E3 .
0 0 1 0 0 1
– 61 –
1 0 0 l1 ↔ l2 0 1 0
I = 0 1 0 ~ 1 0 0 = E1−1,
0 0 1 0 0 1
1 0 0 1 0 0
I = 0 1 0 ~ 0 1 0 = E2−1
0 0 1 l3 ← 91 l3 0 0 91
e
1 0 0 l1 ← l1 − l2 1 −1 0
I = 0 1 0 ~ 0 1 0 = E3−1.
0 0 1 0 0 1
Este método af irma que se A for uma matriz invertível – satisfaz o te-
orema 2.2 – e se uma sequência de operações elementares sobre suas linhas
reduzir A à matriz identidade I, então aquela mesma sequência de operações
sobre as linhas, quando aplicadas a I, produzirá a matriz inversa A−1.
1 2 3
A = 0 1 0 .
1 0 2
– 62 –
1 2 3 1 0 0
[ A , I ] = 0 1 0 0 1 0 ~
1 0 2 0 0 1 l3 ← l3 − l1
1 2 3 1 0 0 l1 ← l1 − 2l2
~ 0 1 0 0 1 0 ~
0 −2 −1 −1 0 1
1 0 3 1 −2 0
~ 0 1 0 0 1 0 ~
0 −2 −1 −1 0 1 l3 ← l3 + 2l2
1 0 3 1 −2 0
~ 0 1 0 0 1 0 ~
0 0 −1 −1 2 1 l3 ← − l3
1 0 3 1 −2 0 l1 ← l1 − 3l3
~ 0 1 0 0 1 0 ~
0 0 1 1 −2 −1
1 0 0 −2 4 3
~ 0 1 0 0 1 0 = [ I , A−1 ] .
0 0 1 1 −2 −1
Portanto,
−2 4 3
A = 0
−1
1 0 .
1 −2 −1
– 63 –
1 0 0 1 0 0
E1 = 0 1 0 e E1 = 0 1 0 .
−1
1 −2 0 1 2 0
E2 = 0 1 0 e E2 = 0 1 0 ,
−1
para l3 ← l3 + 2l2,
1 0 0 1 0 0
E3 = 0 1 0 e E3 = 0 1 0 ,
−1
para l3 ← − l3,
1 0 0 1 0 0
E4 = 0 1 0 e E4 = 0 1 0 ,
−1
e para l1 ← l1 − 3l3 ,
1 0 −3 1 0 3
E5 = 0 1 0 e E5 = 0 1 0 .
−1
E1 A , E2 E1 A , E3 E2 E1 A , E4 E3 E2 E1 A e E5 E4 E3 E2 E1 A = I ,
e, a partir da matriz identidade,
E1 I , E2 E1 I , E3 E2 E1 I , E4 E3 E2 E1 I e E5 E4 E3 E2 E1 I = A−1.
– 64 –
Estamos prontos para estudar métodos ef icientes de solução de sistemas
lineares algébricos.
Ax = b. (2.14)
– 65 –
Por exemplo, o sistema de equações lineares
2 x1 + x2 = 5
x1 − 3 x2 = 6
3
é compatível determinado, porque possui uma única solução; ou seja, x = .
Ainda, o sistema de equação linear −1
{5 x1 + 3x2 = 15
é compatível indeterminado, porque possui uma inf inidade de soluções, ou seja,
15 − 5 x1
{ x ∈ℜ2 ; x2 = e x1 qualquer}.
3
x1 + 3 x2 + 2 x3 = 7
2 x1 + x2 − x3 = 5
− x + 2 x2 + 3 x3 = 4
1
é incompatível, porque o conjunto solução é vazio. Esse fato pode ser com-
provado através de operações elementares sobre a matriz aumentada, [ A, b] ,
conforme mostra o exemplo dado a seguir.
Exemplo 2.17: Considere o sistema
x1 + 3 x2 + 2 x3 = 7
2 x1 + x2 − x3 = 5.
− x + 2 x2 + 3 x3 = 4
1
Mostre que esse sistema é incompatível.
A matriz aumentada do sistema é
1 3 2 7
[ A, b] = 2 1 −1 5 .
−1 2 3 4
– 66 –
Efetuamos sobre [ A, b] as seguintes operações elementares:
1 3 2 7
[ A, b] = 2 1 −1 5 ~
−1 2 3 4 l3 ← l3 + l1
1 3 2 7
~ 2 1 −1 5 l2 ← l2 − 2 × l1 ~
0 5 5 11
1 3 2 7
~ 0 −5 −5 −9 ~
0 5 5 11 l3 ← l3 + l2
1 3 2 7
~ 0 −5 −5 −9 .
0 0 0 2
x1 + 3 x2 + 2 x3 = 7
− 5 x2 − 5 x3 = −9 .
0 x3 = 2
– 67 –
2.4.1 Sistemas homogêneos
Ax = 0.
x1 + 2 x2 + x3 = 0
− x1 + x2 + 2 x3 = 0.
x − x2 − x3 = 0
1
– 68 –
1 2 1 1 2 1 1 2 1
−1 1 2 l ← l + l ~ 0 3 3 0 3 3 .
2 2 1
1 −1 −1 l3 ← l3 − l1 0 −3 −2 l3 ← l3 + l2 0 0 1
~
x1 + 2 x2 − 3 x3 = 0
2 x1 + x2 = 0.
x − x2 + 3 x3 = 0
1
Primeiramente, vamos calcular o posto da matriz de coef icientes para
verif icar se a única solução do sistema é a trivial ou não. Assim,
– 69 –
2.4.2 Sistemas triangulares
a11 x1 = b1
a21 x1 + a22 x2 = b2
(2.15)
an1 x1 + an2 x2 + + ann xn = bn .
b1 b −a x b − a x − a x − − ann−1 xn−1
x1 = , x2 = 2 21 1 , , xn = n n1 1 n2 2 .
a11 a22 ann
b1
Regra geral: iniciando-se com x1 = a11 , obtém-se a incógnita xi pelo soma-
tório indicado em (2.16),
i −1
∑ (b − a x )
j =1
i ij j
(2.16)
xi = , para i = 2, , n .
aii
– 70 –
Exemplo 2.20: Calcule a solução do sistema triangular inferior
1 0 0 x1 1
2 3 0 x = 0
2
4 3 6 x3 −1
usando o algoritmo de substituições sucessivas.
Usando o algoritmo 2.1, temos:
x1 = 1 1 = 1
i = 2 , soma = 0 , j = 1 , soma = 0 + 2 × 1 = 2 , x2 = (0 − 2) 3 = −2 3
i = 3 , soma = 0 , j = 1 , soma = 0 + 4 × 1 = 4 ;
j = 2 , soma = 4 + 3 × ( −2 3) = 2 , x3 = ( −1 − 2) 6 = −1 2
\ x* = [1 −2 3 −1 2]T .
bn b − a x − − a2 n xn b − a x − − a1n xn
xn = , , x2 = 2 23 3 , x1 = 1 12 2 .
ann a22 a11
bn
Regra geral: iniciando-se com xn = ann , obtém-se a incógnita xi pelo soma-
tório indicado em (2.18),
∑ (b − a x )
j = i +1
i ij j
– 71 –
Algoritmo 2.2: Substituições retroativas ou reversas
Dados: uma matriz triangular superior com elementos da diagonal dife-
rentes de zero, A, n × n, um vetor b em ℜ ne n.
xn ← bn ann
Para i = n − 1, ,1
soma ← 0
Para j = i + 1, , n
soma ← soma + aij x j
xi ← ( bi − soma) aii
1 0 0 1 x1 1
0 2 3 4 x2 2
=
0 0 1 0 x3 −4
0 0 0 −2 x4 0
\ x* = [1 7 −4 0]T .
– 72 –
2.4.3 O método de eliminação de Gauss
a11
1 1
a12 a11n b11
0 a122 a12 n b21
[A , b ] =
1 1
,
0 a1n2 a1nn bn1
em que
– 73 –
a1ij = aij0 − mi1 a10j , para i = 2, , n e j = 1, 2, , n ,
bi1 = bi0 − mi1b10 , para i = 2, , n,
a11 j = a10j , para j = 1, 2, , n ,
b11 = b10 .
– 74 –
Agora, o sistema linear equivalente é triangular superior. O sistema está
pronto para a aplicação do algoritmo 2.2.
Os procedimentos descritos nesta seção são expressos na forma de um
algoritmo, como a seguir.
Para j = k + 1, , n
aij ← aij − makj
bi ← bi − mbk
x1 + 2 x2 + 3 x3 = 0
4 x1 + 5 x2 + 6 x3 = 1
x − x2 = 2.
1
1 2 3 0
[ A, b] = 4 5 6 1 .
1 −1 0 2
– 75 –
a
k = 1, i = 2, m = 21 a = 4 1 = 4, a21 = 0 ,
11
j = 2, a22 ← a22 − ma12 , a22 = 5 − 4 × (2) = −3,
j = 3, a23 ← a23 − ma13 , a23 = 6 − 4 × (3) = −6,
b2 ← b2 − mb1 , b2 = 1 − 4 × (0) = 1.
a
i = 3, m = 31 a = 11 = 1, a31 = 0 ,
11
j = 2, a32 ← a32 − ma12 , a32 = −1 − 1 × (2) = −3,
j = 3, a33 ← a33 − ma13 , a33 = 0 − 1 × (3) = −3,
b3 ← b3 − mb1 , b3 = 2 − 1 × (0) = 2.
a
k = 2, i = 3, m = 32 a = −3 −3 = 1, a32 = 0 ,
22
j = 3, a33 ← a33 − ma23 , a33 = −3 − 1 × ( −6) = 3 ,
b3 ← b3 − mb2 , b3 = 2 − 1 × (1) = 1 .
x1 + 2 x2 + 3 x3 = 0
− 3 x2 − 6 x3 = 1
3 x3 = 1.
– 76 –
Exemplo 2.23: Calcule a solução do sistema triangular superior obtido pela
aplicação da eliminação de Gauss
x1 + 2 x2 + 3 x3 = 0
− 3 x2 − 6 x3 = 1
3 x3 = 1.
x3 = 1 3 ,
x2 = (1 + 6 × ( 1 3 )) −3 = −1 ,
x1 = (0 − 3 × ( 1 3 ) − 2 × ( −1)) 1 = 1 ,
\ x* = [1 −1 1 3]T .
– 77 –
Exemplo 2.24: Obtenha uma decomposição LU da matriz
4 1 −1 2
2 2 1 0
A= .
1 −1 2 1
1 −1 1 1
4 1 −1 2 4 1 −1 2
2 2 1 0 l2 ← l2 + ( − 42 ) × l1 0 3 3 −1
~ 2 2
,
1 −1 2 1 1 −1 2 1
1 −1 1 1 1 −1 1 1
multiplicador utilizado = − 24 ,
4 1 −1 2 4 1 −1 2
0 3 3 −1 0 3 3 −1
2 2
~ 2 2
,
1 −1 2 1 l3 ← l3 + ( − 4 ) × l1 0 − 4
1 5 9
4
1
2
1 −1 1 1 1 −1 1 1
multiplicador utilizado = − 1 4 ,
4 1 −1 2 4 1 −1 2
0 3 3 −1 0 3 3 −1
2 2 ~ 2 2 ,
0 − 4
5 9
4
1
2 0 − 4
5 9
4
1
2
1
1 −1 1 1 l4 ← l4 + ( − 4 ) × l1 0 − 5 4
1 5
4 2
multiplicador utilizado = − 1 4 .
– 78 –
elementos que se situam abaixo da diagonal são o negativo dos multiplicadores
utilizados nas operações elementares durante o processo de eliminação.
Dessa forma, após anular elementos na primeira coluna, a matriz pas-
sa a exibir a seguinte estrutura:
1 0 0 0
2 1 0 0
L= 1 .
4
4 ? 1 0
1
4 ? ? 1
5 5
multiplicador utilizado = 4
= .
3 6
2
4 1 −1 2 4 1 −1 2
0 3 3 −1 0 3 3 −1
2 2 ~ 2 2
0 0 7
2 − 13 0 0 7
2 − 13
5
0 − 4 2 l4 ← l4 + × l2 0
4 −1
5 5 1 0 5
3
4 2 3 ,
2
5 5
multiplicador utilizado = 4
= .
3 6
2
– 79 –
Anularemos o elemento da coluna 3 que está abaixo da posição (3,3):
4 1 −1 2 4 1 −1 2
0 3 3 −1 0 3 3 −1
2 2 ~ 2 2
0 0 7 2 − 1 3 0 0 7 2 − 1 3
− 52
3 l4 ← l4 + × l3 0 0 0 −2 21 ,
−1
0 0
5
2
72
− 52 5
multiplicador utilizado = =− .
7 7
2
1 0 0 0
2 1 0 0
L= 1 ,
4
4 − 56 1 0
1
4 − 56 5
7 1
4 1 −1 2
0 3 3 −1
U= .
2 2
0 0 7
2 − 13
−2
0 0 0 21
1 0 0 0 4 1 −1 2 4 1 −1 2
2 1 0 0 0 3 3 −1 2 2 1 0
4 2 2
= .
4 − 56
1 1 0 0 0 7
2 − 1 3 1 −1 2 1
1 −2
4 − 6 1 0 0 0 1 −1 1 1
5 5
7 21
– 80 –
Dessa forma, está concluído o exemplo 2.24, no qual obtivemos uma
decomposição da matriz A.
Os fundamentos matemáticos da decomposição LU provêm do concei-
to de matriz elementar (vide a def inição 2.13 e o teorema 2.3). No exemplo
precedente, os passos para se obter a decomposição de A podem ser expressos
usando-se matrizes elementares, do seguinte modo:
1 0 0 0 4 1 −1 2 4 1 −1 2
− 2 1 0 0 2 2 1 0 0 3 3 −1
E1 A = = ,
4 2 2
0 0 1 0 1 −1 2 1 1 −1 2 1
0 0 1 1 1 −1 1 1 1 −1 1 1
1 0 0 0 1 0 0 0 4 1 −1 2 4 1 −1 2
0 1 0 0 − 2 4 1 0 0 2 2 1 0 0 3 2 3 −1
E2 E1 A = 1 =
2
− 4 0 1 0 0 0 1 0 1 −1 2 1 0 − 5 4 9 1 ,
4 2
0 0 1 1 0 0 1 1 1 −1 1 1 1 −1 1 1
1 0 0 0 1 0 0 0 1 0 0 0 4 1 −1 2
0 1 0 0 0 1 0 0 − 2 4 1 0 0 2 2 1 0
E3 E2 E1 A = =
0 0 1 0 − 1 4 0 1 0 0 0 1 0 1 −1 2 1
1
− 4 0 0 1 0 0 0 1 0 0 0 1 1 −1 1 1
4 1 −1 2
0 3 3 −1
= .
2 2
0 − 4
5 9
4
1
2
1
0 − 4
5 5
4 2
1 0 0 0 1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0 0 1 0 0
E4 = , E = e E =
0 5
6 1 0 5
0 0 1 0 6
0 0 1 0
0 0 0 1 0
5
6 0 1 0 0 − 57 1
– 81 –
sobre E3 E2 E1 A, na sequência E6 E5 E4 E3 E2 E1 A, conduzem à matriz triangu-
lar superior U,
4 1 −1 2
0 3 3 −1
E6 E5 E4 E3 E2 E1 A = U = .
2 2
0 0 7
2 − 13
−2
0 0 0 21
1 0 0 0 1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0 0 1 0 0
E3−1 E4−1 = = ,
0 0 1 0 0 − 5 6 1 0 0 − 5 6 1 0
1
4 0 0 1 0 0 0 1 1 4 0 0 1
que equivale a
1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 .
E3−1 + E4−1 − I = + − =
0 0 1 0 0 − 5 6 1 0 0 0 1 0 0 − 56 1 0
1
4 0 0 1 0 0 0 1 0 0 0 1 1 4 0 0 1
Consequentemente,
1 0 0 0 1 0 0 0
0 1 0 0 2 1 0 0
E5−1 E6−1 = , E −1 E −1 = 4 .
0 0 1 0 1 2 1 4 0 1 0
−5
0 1 0 0 0 1
5
6 7
– 82 –
Daí, concluímos que o produto E1−1 E2−1 E3−1 E4−1 E5−1 E6−1 resultará na ma-
triz triangular inferior, L , como está mostrado a seguir,
2 1 1
A = −2 −1 2 .
4 1 1
– 83 –
Ao anularmos o elemento −2 da posição (2,1), verif icamos o surgimento
do zero na posição diagonal (2,2),
2 1 1 2 1 1
−2 −1 2 l ← l + ( 2 ) × l ~ 0 0 3 .
2 2 2 1
4 1 1 4 1 1
– 84 –
4 1 1
E1 A = −2 −1 2 .
2 1 −2
4 1 1 4 1 1
−2 −1 2 l ← l + ( 2 ) × l ~ 0 − 1
2.
5
2 2 4 1 2
2 1 −2 2 1 −2
4 1 1 4 1 1
0 − 1 5 ~ 0 − 1 2 5 2 ,
2 2
2 1 −2 l3 ← l3 + ( − 42 ) × l1 0 1 2 − 5 2
4 4 1 1 1 1 4 4 1 1 1 1
00 − −1 1 5 5 ~ ~00 − −1 2 1 2 5 252 .
2 2 2 2
00 1 2 1 2 − −5 252l3 l←
3 ←l3 l+3 +
( −(1)
−1)
(1) ×××ll22l2 00 0 0 0 0
4 1 1
U = 0 − 1 2 5 ,
2
0 0 0
e a matriz L, é
1 0 0
L = −1 2 1 0 ,
1 2 −1 1
– 85 –
0 0 1
P = 0 1 0 .
1 0 0
1 0 0 4 1 1 4 1 1
LU = −1 2 1 0 0 − 1 2 5 = −2 −1
2 2 .
1 2 −1 1 0 0 0 2 1 −2
PA = LU,
e
A = PLU .
Ax = ( LU ) x = L(Ux) = b:
– 86 –
(2) substituição direta: Ly=b,
11 00
00 00 y1 b1
l
l2121 11
00 00 y2 b2
= ;
lnl−n1,1−11 lnl−n−1,212
11 00 yn−1 bn−1
lln1 lnn22
llnnn, n−−11 11 yn bn
n1
– 87 –
lik ← m
Para j = k + 1, , n
aij ← aij − makj
y1 ← b1
Para i = 2, , n
soma ← 0
Para j = 1, , i − 1
soma ← soma + lij y j
yi ← bi − soma
xn ← yn ann
Para i = n − 1, ,1
soma ← 0
Para j = i + 1, , n
soma ← soma + aij x j
xi ← ( yi − soma) aii
– 88 –
Primeiramente, analisaremos o número de operações necessárias para a
decomposição LU de uma matriz A, n × n .
Aqui, assumimos um f lop como a unidade de operação de ponto
f lutuante que corresponde a um produto acompanhado de uma adição envol-
vendo números reais (ou seja, a = b + c × d ). Então, supondo a primeira linha
da matriz inalterada, na obtenção dos zeros na primeira coluna, realizamos
n( n − 1) f lops e, na segunda coluna, ( n − 1)( n − 2) f lops e, na terceira coluna,
( n − 2)( n − 3) f lops e, assim por diante, resultando no seguinte somatório,
n −1
∑ ( n − k + 1)( n − k) ,
k =1
( n2 − 1) n n3 − n
cujo resultado é = .
3 3
A obtenção da inversa da matriz A através do método de Gauss-Jordan
requer a seguinte quantidade de f lops para anular as posições abaixo da dia-
gonal principal:
n −1 n −1
∑k =1
(2n − k + 1)( n − k) , e ∑ ( n + k)( n − k)
k =1
n −1 n −1
3n3 + n
∑k =1
(2n − k + 1)( n − k) + ∑
k =1
( n + k)( n − k) + ( n + 1) n ≅
2
.
– 89 –
Tabela 2.2: Número aproximado de f lops requeridos para a solução de um sistema Ax=b,
sendo A uma matriz n × n, nos métodos de Gauss-Jordan e decomposição LU
Gauss-Jordan Decomposição LU
3n3 + n n3 − n
inversa decomposição
2 3
−1
multiplicação A b n2 substituições 2( n − 1)2
– 90 –
9. Utilize o comando rank do software MATLAB para a matriz do exemplo 2.13.
1 2 3 x1 −1
0 1 0 x = 2 .
2
1 0 2 x3 1
1 2 3
A = 0 1 0 .
1 0 2
x1 + 2 x2 + 3 x3 = 0
4 x1 + 5 x2 + 6 x3 = 1.
x − x2 = 2
1
– 91 –
1 1 1
a) A = ,
1 1 1
1 2 4
b) B = −1 −2 −4 ,
2 4 8
1 0 −1
c) C =
2 4 2
e
−1 2 2 1
d) D = 0 2 1 1 .
1 3 −1 1
19. Dados os sistemas Ax = b abaixo, classif ique-os quanto à solução: (a) com-
patível determinado; (b) compatível indeterminado; e (c) incompatível (ou
inconsistente).
x1 + 2 x2 + 3 x3 = 1
a) 4 x1 + 5 x2 + 6 x3 = −1 ,
3x + 3 x2 + 3 x3 = −2
1
2 x1 − x2 + x3 = 5
b) ,
x1 + x2 − x3 = 2
x1 + 2 x2 + 3 x3 = 1
c) x1 − x2 + x3 = 1
x + x2 + x3 = 0
1
e
x1 − x2 + x3 = 1
d) .
x1 + x2 − x3 = 1
– 92 –
20. Mostre que o sistema
x1 + 3 x2 + 2 x3 = 7
2 x1 + x2 − x3 = 5
− x + 2 x2 + 3 x3 = 4
1
3 −1 0
a) A = −1 2 2
0 2 3
e
−1 3
b) B = .
2 1
22. Obtenha as inversas das matrizes elementares
1 0 0
a) E1 = 0 5 0 ,
0 0 1
1 0 0
b) E2 = 0 1 0
2 0 1
e
1 0 0
c) E3 = 0 1 0 .
0 −3 1
– 93 –
24. Converta o sistema Ax=b à forma triangular e obtenha a solução x com os
dados
1 1 1 1 0
0 0 0 −2 1
A= e b= .
0 3 2 2 0
0 1 −1 3 0
– 94 –
III
Programação Linear
minimizar z = cT x
(P) sujeito a: Ax = b
x ≥ 0.
– 95 –
Def inição 3.1: Considere o PPL (P):
minimizar z = x1 − 2 x3
sujeito a : 2 x1 − 4 x2 + x3 = 5
x1 + x3 = 7
x1 , x2 , x3 ≥ 0.
– 96 –
Na ocorrência de
maximizar z = cT x
sujeito a: x ∈ X ,
minimizar − z = − cT x
sujeito a: x ∈ X.
∑a x
j =1
ij j ≤ bi
ou
n
∑a x
j =1
ij j ≥ bi ,
∑a x
j =1
ij j + xn+ i = bi
ou
n
∑a x
j =1
ij j − xn+ i = bi ,
– 97 –
Na ocorrência de variáveis livres, isto é, x j ∈ℜ, para algum j=1, ..., n,
basta realizar uma mudança de variáveis, def inindo
x j = x j − xˆ j , com x j ≥ 0 e xˆ j ≥ 0 .
maximizar z = x1 − 5 x2
sujeito a : x1 + x2 ≤ 2
x2 ≥ 0
x1 = x4 − x5 , com x4 ≥ 0 e x5 ≥ 0 ,
minimizar z = 5 x2 − x4 + x5
sujeito a : x2 + x3 + x4 − x5 = 2
x2 , x3 , x4 , x5 ≥ 0.
Nesta seção será tratado o estudo dos fundamentos da PL. O que faremos
neste caminho, então, será reescrever o que já existe na literatura, dando uma pri-
– 98 –
meira olhada no conjunto viável como um poliedro e, em seguida, caracterizando-
o como um poliedro com um número f inito de pontos extremos e com pelo menos
um ponto extremo quando não vazio. Além disso, será desenvolvido um método
gráf ico para a solução de um PPL, e enunciado o teorema fundamental da PL.
Iniciamos nossa tarefa com alguns resultados de convexidade. Af inal, o
que são poliedros?
Def inição 3.2: Sejam dados um vetor não nulo a ∈ℜ n, denominado vetor nor-
mal, e um escalar δ ∈ℜ .
a) O conjunto
H = { x ∈ℜ n ; aT x = δ}
é denominado um hiperplano.
b) Os conjuntos
Hl = { x ∈ℜ n ; aT x ≤ δ}
e
Hu = { x ∈ℜ n ; aT x ≥ δ}
– 99 –
Figura 3.1: Representação de um hiperplano H e de semiespaços fechados Hl e Hu
x = λ1 x1 + λ 2 x 2 + … + λ q x q.
λ1 + λ 2 + … + λ q = 1 e λ1 , λ 2 , … , λ q ∈[0,1] .
– 100 –
c) Seja S um subconjunto do ℜ n. Dizemos que S é um conjunto convexo,
quando todas as combinações convexas de quaisquer dois pontos de S
pertencerem a S .
d) Seja S um subconjunto convexo do ℜ n. Um ponto x em S é denomi-
nado ponto extremo de S, quando x não for uma combinação convexa de
quaisquer dois outros pontos distintos em S.
Figura 3.2: Exemplos de (a) um conjunto convexo e (b) um conjunto não convexo
Exemplo 3.4: Na figura 3.2(a) temos um conjunto convexo com quatro pontos
extremos; a f igura 3.2(b) não é um conjunto convexo. São também mostrados
dois pontos x1 e x2, pertencentes aos conjuntos, e x̂ , um ponto extremo da fi-
gura 3.2(a).
– 101 –
Def inição 3.4: Sejam dados uma matriz A, m × n, 0 < m < n, e um vetor
b em ℜ m . Consideremos um sistema de equações lineares Ax = b, tal que
posto ( A ) = m .
IB = {1, 2, , m} e IN = { m + 1, m + 2, , n} .
– 102 –
xB
Ax = b ⇒ [ B N ] N = b ⇒ BxB + NxN ⇒
x
x1 + x2 + x3 = 3
x1 + x4 = 3
x1 , x2 , x3 , x4 ≥ 0.
1 1 1 0 3
A= e b= .
1 0 0 1 3
1 1
B= ,
1 0
a solução básica é
x = [3 0 0 0]T ,
– 103 –
1 1 x1 3 x1 + x2 = 3
Bx B = b ⇒ = ⇒
1 0 x2 3 x1 = 3,
IB = {3, 4} e IN = {1, 2} ,
e a solução básica é
x = [0 0 3 3]T ,
1 0 x3 3 x3 = 3
Bx B = b ⇒ = ⇒
0 1 x4 3 x4 = 3,
– 104 –
Assim, podemos calcular pontos extremos através do cálculo de soluções
básicas viáveis. Além disso, devemos observar que a correspondência entre
pontos extremos e soluções básicas viáveis não é, em geral, um a um (veja-se,
adiante, o exercício 4).
O próximo resultado caracteriza o conjunto viável de um PPL, formali-
zando, assim, a sua geometria.
minimizar z = x1
sujeito a: x1 + x2 = 2
x1, x2 0.
– 105 –
Figura 3.3: Solução do exemplo 3.6 através de um método gráfico
Teorema 3.3: Consideremos o PPL (P). Se (P) admite solução ótima, então
uma solução ótima é atingida em ao menos um ponto extremo do conjunto
viável.
– 106 –
Considere-se o PPL (P), no formato padrão,
minimizar z = cT x
(P) sujeito a: Ax = b
x ≥ 0,
– 107 –
Esse problema – denominado problema de fase 1 ou, equivalentemen-
te, problema de viabilidade – consiste em encontrar um ponto viável inicial.
Aqui, supomos que o ponto viável inicial é dado, porque a ideia do método
simplex para a fase 2 – problema de otimalidade –, que desenvolvemos neste
capítulo, é semelhante. Esta hipótese é forte, tendo em vista que não tratare-
mos problemas inviáveis de PL.
Considere o problema de PL (P). Denotamos uma solução básica viável
para (P), xˆ ∈ℜ n, associada a uma matriz base B, m × m . Denotamos, tam-
bém, uma matriz não base N, m × ( n − m) . Por def inição, xˆ B = B−1b ≥ 0 e
xˆ N = 0.
De um modo geral, como não podemos garantir que os índices das va-
riáveis básicas e das variáveis não básicas estão ordenados, os conjuntos de
índices base e de índices não base serão representados genericamente, como a
seguir, respectivamente:
IB = { i1 , i2 , , im } e IN = { j1 , j2 , , jn− m } .
Uma vez que uma matriz base é conhecida, todo ponto viável x, para (P),
pode ser escrito com o vetor de variáveis básicas
x N = [ x j1 x j2 x jn− m ]T .
– 108 –
Desenvolvendo Ax = b, obtemos a expressão (3.1), já vista, a saber:
Ax = b ⇒ Bx B + Nx N = b ⇒
(3.1)
⇒ x B = B−1b − B−1 Nx N .
c T x = ( c B )T x B + ( c N )T x N = ( c B )T ( B−1b − B−1 Nx N ) + ( c N )T x N
(3.2)
c T x = ( c B )T B−1b + [( c N )T − ( c B )T B−1 N ] x N .
Observe que o valor da função objetivo em (3.3) pode ser reescrito assim:
T
−1
0 xB
z = c x = (c ) B b + N
T B T
−1 T B N
.
c − ( B N ) c x
0
s= N −1 T B
c − (B N ) c
– 109 –
Quadro 3.1: Quadro do simplex
Base ( x B )T ( x N )T RHS
sB = 0 s N = c N − ( B−1 N )T c B − z = − cT xˆ
xˆ B I B−1 N B−1b ≥ 0
xB
[ I , B −1
N −1
N = B b,
x
em que B−1b é o vetor do lado direito do quadro simpex, denotado por RHS
(right hand side).
minimizar z = − x1 − 2 x2
sujeito a: x1 + x2 + x3 = 4
2 x1 + x2 + x4 = 6
x1 + + x5 = 3
x1 , x2 , x3 , x4 , x5 ≥ 0.
– 110 –
A partição da matriz A que retrata a base corrente é a seguinte:
1 0 0 1 1
B = 1 1 0 e N = 2 0 .
0 0 1 1 0
−1
1 0 0 4 1 0 0 4 4
x = 1 1 0 6 = −1 1 0 6 = 2 ,
B
x2 4 x1 0
x 2 x 4
xB 4 2
N = x5 = 3 x = x3 = 0 .
x x 0
1 x4 2
x3 0 x5 3
0
4
z = [ −1 −2 0 0 0] 0 = −8 .
2
3
– 111 –
Para calcular o vetor custo reduzido, sB = 0 e
T
1 0 0 −1 1 1 −2
−1
s N = c N − ( B−1 N )T c B = − 1 1 0 2 0 0
0 0 0 1 1 0 0
T
1 0 0 1 1 −2
−1
s = − −1 1 0 2 0 0
N
0 0 0 1 1 0 0
T
1 1 −2
−1 −1 −2 1
s = − 1 −1 0 = − = .
N
0 1 0 0 0 −2 2
1 1
B N = 1 −1 .
−1
1 0
Base x1 x2 x3 x4 x5 RHS
1 0 2 0 0 −z =8
x2 1 1 1 0 0 4
x4 1 0 −1 1 0 2
x5 1 0 0 0 1 3
– 112 –
Observe, no quadro 3.2, que a matriz identidade I = B−1 B está repre-
sentada pelas colunas de índices em IB = {2, 4, 5}, enquanto que B−1 N pelas
colunas de índices em IN = {1, 3} . O vetor do lado direito do quadro simplex é
obtido por B−1b e, na primeira linha, temos o vetor custo reduzido e o nega-
tivo do valor da função objetivo − z = 8 .
O próximo teorema fornece uma condição suf iciente para que uma so-
lução básica viável seja uma solução ótima.
Teorema 3.4: Se x̂ é uma solução básica viável com vetor custo reduzido não
negativo, então x̂ é uma solução ótima para o problema (P).
– 113 –
x1
B
ciado ao ponto extremo corrente, x k+1 é o vetor de variáveis básicas associado
ao ponto extremo adjacente, caracterizado como
0
0
Bk+1
= x k − B−1 [ A j1
B
x A j2 Ah A jn−m ]
xh
0
Bk+1
= x k − B−1 Ah xh .
B
x
– 114 –
se obter um novo ponto extremo. Genericamente, o vetor direção de aresta,
u ∈ℜ n, é expresso como
− B−1 Ah
0
(3.4)
u= .
1 ← h
0
– 115 –
Qual variável sairá da base para dar lugar à variável xh que está entrando?
A análise da expressão
xki bˆki
= − xh , para todo ki ∈ IB , i = 1, ..., m e dih > 0,
dih dih
bˆki
mostra que a menor razão indicará qual variável do primeiro membro
dih
sairá da base mediante o crescimento de xh. Esse critério é conhecido como
teste da razão mínima, que é formalmente expresso no procedimento 3.1.
bˆkq bˆk
h
= min
i
h
; dih > 0, ki ∈ IB ⇒ índice kq . (3.6)
dq i=1, ..., m d
i =1,...,
i
bˆkq
xh = ,
dqh
bˆkq
sendo o valor que xh irá assumir ao entrar na base e também o tamanho
dqh
do passo na direção de aresta obtida por (3.4).
– 116 –
x2 tenha sido escolhida para entrar na base, calcule o vetor direção de aresta,
d 2 ∈ℜ3 , e a nova solução básica viável.
1 0 0 1 1
B = 0 1 0 e N = 2 1 ,
0 0 1 1 0
x3 4 x1 0
x 6 x 0
xB 4 2
N = x5 = 3 ⇒ x = x3 = 4 ,
x x 0
1 x4 6
x2 0 x5 3
− B−1 A2 − d 2
u= 0 = 0 ,
1 1
em que − B−1 A2 = − d 2 é
−1
1 0 0 1 1
d = 0 1 0 1 = 1 .
2
– 117 –
Portanto,
−1
−1 1
u = 0 e d = 1 .
2
0 0
1
4 6 bˆ
min , = 4 ⇒ índice kq = k1 = 3 e 32 = x2 = 4 ,
i =1, 2, 3 1 1 d1
−1
1 0 0 4
x = 1 1 0 6 ,
Bˆ
ˆ ˆ
x B = [4 2 3]T e x N = [0 0]T,
x1 0
x 4
2
x = x3 = 0 .
x4 2
x5 3
– 118 –
O próximo teorema fornece um critério de possível melhoria para o va-
lor da função objetivo do problema (P).
Teorema 3.5: Considere-se o PPL (P). Seja dada uma solução básica viável x̂
associada a uma matriz base B. Considere-se sh < 0, para algum h ∈ IN , tal
que exista dih > 0 ao menos para algum i = 1, ..., m. Ainda, considere-se
bˆkq bˆk
h
= min
i
h
; dih > 0 , ki ∈ IB . (3.7)
dq i =1,..., m di
bˆkq
Então, fazendo xh = a nova variável básica, anulamos xkq fazendo-a va-
dqh
riável não básica, obtendo assim uma nova solução básica viável x, tal que
cT x ≤ cT xˆ .
Usando o teorema 3.5 no problema de PL do exemplo 3.8, verif icamos
no quadro simplex, quadro 3.3, que h ∈{1, 2} = IN e s1 = −1 e s2 = −2 . Além
disso, os vetores d1 = [1 2 1]T e d 2 = [1 1 0]T . Ao escolhermos h = 2
( s2 = −2 < 0 ) o índice para entrar no novo conjunto de índices base, cal-
culamos o mínimo do quociente entre os elementos da última coluna e da
coluna dois, para as coordenadas positivas de d 2. Daí encontramos o índice
kq = 3, que é o índice para entrar no novo conjunto de índices não base. Obser-
vemos as duas setas no quadro 3.3: a seta vertical indica que x2 será a nova va-
riável básica e a seta horizontal indica que x3 será a nova variável não básica.
↓
Base x1 x2 x3 x4 x5 RHS
−1 −2 0 0 0 −z = 0 l1
← x3 1 1 1 0 0 4 l2
x4 2 1 0 1 0 6 l3
x5 1 0 0 0 1 3 l4
– 119 –
o restante dos elementos dessa coluna, usando as seguintes operações elemen-
tares: l3 ← l3 − l2 e l1 ← l1 + 2l2 . O próximo quadro do simplex, quadro 3.4,
mostra o resultado, que coincide com o quadro 3.2 do exemplo anterior.
Quadro 3.4: Quadro do simplex para o exemplo 3.8 para IBˆ = {2, 4, 5}
Base x1 x2 x3 x4 x5 RHS
1 0 2 0 0 −z =8
x2 1 1 1 0 0 4
x4 1 0 −1 1 0 2
x5 1 0 0 0 1 3
minimizar − x1
sujeito a : x1 − x2 = 2
x1 , x2 ≥ 0.
− B−1 A2 − d 2
u= = ,
1 1
em que − B−1 A2 = − d 2 é
d 2 = (1) −1 ( −1) = −1 .
– 120 –
Portanto,
1
u = e d 2 = −1 .
1
Isto signif ica que não se pode obter uma nova variável básica. Concluímos
que o PPL é ilimitado.
Esse fato, no exemplo 3.9, sugere o seguinte resultado:
Teorema 3.6: Considere o PPL (P). Seja dada uma solução básica viável xˆ , as-
sociada a uma matriz base B. Se tivermos sh < 0 e d h ≤ 0 , para algum h ∈ IN ,
então (P) é um problema ilimitado.
Quadro 3.5: Quadro simplex para o exemplo 3.9 em que o PPL é ilimitado
Base x1 x2 RHS
0 −1 −z = 2
x1 1 −1 2
Com base nas análises apresentadas aqui e nas seções precedentes, pode-
mos estabelecer os passos do algoritmo simplex. Para a entrada na base e para
a saída da base, utilizaremos a regra do menor índice – ou regra de Bland –
para garantirmos convergência.
– 121 –
Algoritmo 3.2: Simplex
Dados: uma solução básica viável x0 associada a uma matriz base inicial
B0 , um conjunto de índices base IB0 e um conjunto de índices não base IN0 .
k ← 0.
Repita
Calcule o vetor multiplicador simplex y ∈ R m , resolvendo o sistema linear
B
Bk T y = c k .
sl = cl − yT Al para todo l ∈ IN k .
Se s ≥ 0 ,
então x k é uma solução ótima.
Senão,
entrada na base: calcule o novo índice base
Bk d h = Ah .
Se d h ≤ 0,
então, o problema é ilimitado.
Senão,
saída da base: calcule o novo índice não base
xkki xk
k
kq = min ki0 ; h0 = min hi ; dih > 0 , ki ∈ IBk .
ki0 ∈IBk
di0 i =1,..., m di
– 122 –
IN k+1 ← ( IN k ∪ { kq }) − { h} .
Bk+1 k +1
Bk +1 x = b; xkq ← 0.
k ← k +1.
Até que s ≥ 0 ou d h ≤ 0.
– 123 –
minimizar z = x1 + 3 x2
sujeito a: − x1 + x2 − x3 = 5
x1 + x2 − x4 = 8.
x1 , x2 , x3 , x4 ≥ 0
Inicialização:
e a matriz base
1 −1
B0 = ,
1 0
−1
x2 1 −1 5 0 1 5 8
x B0 = = = ⇒ x B0 = ,
x3 1 0 8 −1 1 8 3
x1 0
x N0 = = .
x4 0
0 1
yT = ( c B0 )T B0−1 = [3 0] = [0 3].
−1 1
O vetor custo reduzido é
– 124 –
sl = 0 , para todo l ∈{2, 3},
e
sl = cl − yT Al para todo l ∈{1, 4} ,
s1 = c1 − y A1
T
,
s4 = c4 − y A4
T
−1
s1 = 1 − [0 3] = 1 − (0 × ( −1) + 3 × 1) = −2 ⇒ s1 = −2
1
0
s4 = 0 − [0 3] = 0 − (0 × 0 + 3 × ( −1)) ⇒ s4 = 3 .
−1
A existência de uma componente do vetor custo reduzido negativa sig-
nif ica que a base corrente não é ótima. Então, passamos ao próximo passo.
A direção d1 ∈ R2 é
1 −1 d1 −1
1
d11 1 −1 −1 −1 0 1 −1 1
=
1 0 1 1 ⇒ 1 = = = .
d2 d2 1 0 1 −1 1 1 2
índice kq = k2 = 3 .
Concluída a mudança de base, no próximo passo atualizaremos a solu-
ção básica viável.
– 125 –
Passo 3: Atualização da base:
Atualizamos os índices base e não base,
IB1 = {2, 1} ,
e
IN1 = {3, 4} .
1 −1
B1 = .
1 1
−1
x2 1 −1 5 1 2 1
2 5 13 2
x B1 = = = 1 ⇒ x B1
= 3 ,
x1 1 1 8 − 2 2 8
1
2
x3 0
x N1 = = .
x4 0
12 1
2
yT = ( c B )T B1−1 = [3 1] 1 = [1 2] ,
− 2
1
2
O vetor custo reduzido é
sl = 0 , para para todo l ∈{2, 1} ,
e
sl = cl − yT Al para todo l ∈{3, 4} ,
s3 = c3 − yT A3
,
s4 = c4 − y A4
T
– 126 –
−1
s3 = 0 − [1 2] = 0 − (1 × ( −1) + 2 × 0) = 1 ⇒ s3 = 1
0
0
s4 = 0 − [1 2] = 0 − (1 × 0 + 2 × ( −1)) ⇒ s4 = 2.
−1
maximizar w = bT y
(D) sujeito a: AT y ≤ c
y irrestrita.
– 127 –
Para clareza da exposição, será solucionado um exemplo de obtenção de
um problema dual dado um problema primal.
1 1 1 0 0
A = 2 1 0 1 0 ,
1 0 0 0 1
−1
−2
4
c= 0 , b = 6 .
0 3
0
– 128 –
maximizar w = [4 6 3] y
1 1
2 −1
1 01 −2
(D) sujeito a: 1 0 y ≤ 0 ,
0
0 1
0 0
0 1
0 0
y irrestrita.;
y irrestrita significa que não são impostas quaisquer restrições às variáveis y1, y2 e y3.
Uma maneira de tratar a dualidade em Programação Linear é trabalhar
com os problemas primal e dual em par, expressos nas chamadas formas ca-
nônicas.
minimizar z = cT x
(PC) sujeito a: Ax ≥ b
x ≥ 0.
maximizar w = bT y
(DC) sujeito a: AT y ≤ c
y ≥ 0.
– 129 –
Exemplo 3.12: Considere o PPL a que chamamos de primal
minimizar z = 4 x1 + 3 x2
sujeito a : 2x1 + x2 ≥ 3
x1 + x2 ≥ 2
x1 , x2 ≥ 0.
maximizar w = 3 y1 + 2 y2
sujeito a : 2y1 + y2 ≤ 4
y1 + y2 ≤ 3
y1 , y2 ≥ 0.
– 130 –
Propriedade 3.1: Considere os problemas (PC) e (DC): se x̂ é uma solução viável
do problema primal (PC) e ŷ é uma solução viável do problema dual (DC), então
cT xˆ ≥ bT yˆ .
– 131 –
2 x1 + x2 ≥ 3
x1 + x2 ≥ 2
x1 , x2 ≥ 0;
- para x ' ,
2 × (2) + 5
2 = 13
2
2 + 5
2 = 9
2
2, 5
2 > 0 ;
- para x " ,
2 × (1) + 1 = 3
1 + 1 = 2
1 > 0
1 > 0..
Os cálculos mostram que x ' e x '' são soluções viáveis do problema primal.
De modo análogo, substituiremos os vetores y' e y'' no lado esquerdo das
restrições do problema dual:
2 y1 + y2 ≤ 4
y1 + y2 ≤ 3
y1 , y2 ≥ 0,
- para y' ,
2 × (1) + 1 = 3
1 + 1 = 2
1, 1 > 0,
- para y " ,
2 × (1) + 2 = 4
1 + 2 = 3
1 > 0
2 > 0. .
Os cálculos mostram que y' e y " são soluções viáveis do problema dual. Para
verificar a propriedade 3.1, devemos substituir as soluções viáveis nas funções
objetivo dos problemas. Iniciamos com o problema primal.
– 132 –
z = 4 x1 + 3 x2 ,
- para x ' ,
z ’ = 4 × ( 2) + 3 × ( 5 2 ) ⇒ z ’ = 31 2 ,
- para x " ,
z " = 4 × (1) + 3 × (1) ⇒ z " = 7 .
A propriedade 3.2, por sua vez, se aplica às soluções ótimas dos proble-
mas primal e dual. Para consolidar o conceito, considere o quadro do simplex
3.6 com a solução ótima do problema primal do exemplo 3.12.
Quadro 3.6: Quadro do simplex ótimo para o problema primal do exemplo 3.12
Base x1 x2 x3 x4 RHS
0 0 1 2 − z = −7
x1 1 0 −1 1 1
x2 0 1 1 −2 1
– 133 –
Propriedade 3.3: Se um dos problemas primal ou dual for um problema ilimi-
tado, então o outro será um problema inviável.
O leitor poderá verificar facilmente a propriedade 3.3, considerando o
exemplo a seguir.
minimizar z = − x1
sujeitoa: x1 ≥ 2
x1 ≥ 0.
– 134 –
B
Bk T y = c k .
sl = cl − yT Al para todo l ∈ IN k.
minimizar z = 4 x1 + 3 x2 + 0 x3 + 0 x4
sujeito a: 2 x1 + x2 − x3 = 3
x1 + x2 − x4 = 2
x1 , x2 , x3 , x4 ≥ 0.
2 1 B 4
B= ; c = 3 .
1 1
– 135 –
O objetivo é calcular o vetor multiplicador simplex correspondente aos índi-
ces base IB = {1, 2} . A matriz inversa de BT e o produto dessa matriz com o
vetor c B são mostrados a seguir:
s1 = 0 ,
s2 = 0 ,
−1
s3 = 0 − [1 2] ⇒ s3 = 1 ,
0
0
s4 = 0 − [1 2] ⇒ s4 = 2 ,
−1
mostrando que a base corrente é ótima. Por sua vez, o problema dual corres-
pondente é:
– 136 –
em que acrescentamos variáveis de folga, α1 , α 2 , α 3 e α 4 . Agora, observe-
mos que o produto da matriz inversa de BT com o vetor c B , calculado ante-
riormente, é o multiplicador simplex do algoritmo 3.2, que é a solução ótima
do dual, isto é, y* = [1 2]T . Ainda, consideremos o quadro do simplex 3.6.
Os custos reduzidos lidos na primeira linha do quadro 3.6 são exatamente os
valores das variáveis de folga, isto é, α1 = 0 , α 2 = 0 , α 3 = 1 e α 4 = 2 .
Na seção 3.4.1 foram apresentados os dois problemas primal e dual que
se apresentavam em suas formas canônicas. Entretanto, nem sempre o pro-
blema cujo dual desejamos obter está expresso na forma canônica. Uma regra
simples e de aplicação direta pode ser utilizada para a obtenção do PPL dual
a partir de um PPL primal.
– 137 –
Concluímos de imediato que o problema dual possuirá três variáveis, sen-
do cada uma associada a uma restrição do problema primal, como mostrado:
x1 + 3 x2 ≤ 2 ← y1
− x1 + 5 x2 ≥ 1 ← y2
2 x1 − x2 = 3 ← y3 .
maximizar w = 2 y1 + y2 + 3 y3 ;
– 138 –
As propriedades apresentadas anteriormente e as relações entre as soluções,
além dos exemplos resolvidos, nos habilitam a enunciar um importante teorema.
Com base nesse importante teorema vemos que a dualidade nem sempre
pressupõe simetria entre os dois problemas.
O estudo da dualidade em Programação Linear proporciona a compreen-
são de importantes conceitos dessa fascinante área da Pesquisa Operacional. Um
desses conceitos, de crucial relevância em estudos mais aprofundados da teoria da
Otimização, consiste nas condições de otimalidade, conhecidas como condições de
Karush-Kuhn-Tucker, que foram estabelecidas em 1939, preliminarmente para a
Programação Não Linear, portanto, antes do advento do algoritmo simplex.
A próxima seção irá tratar das condições de Karush-Kuhn-Tucker para
a Programação Linear.
– 139 –
As condições 1 e 2 simplesmente requerem que x * e y * devem ser so-
luções viáveis dos problemas primal e dual, respectivamente, enquanto que
a condição 3, também conhecida como condição de folgas complementares,
fornece cT x* = bT y * .
Estamos prontos para apresentar um método que teve origem na duali-
dade: o método dual simplex, proposto por Lemke, em 1954.
xˆ ki 0 1 0 aˆ ki j1 aˆ ki jq aˆ ki jn− m bˆki
ˆxkm 0 0 1 aˆ k j aˆ km jq aˆ km jn− m bˆ
m 1 km
– 140 –
Por solução básica inviável entendemos que exista pelo menos um elemento
bˆki negativo, ou seja, um xˆ ki < 0 .
Passo 1. Se todos os bˆki ≥ 0 , pare; a solução básica atual é ótima porque a via-
bilidade foi alcançada. Em caso contrário, selecione a linha r do pivô dentre
{
aquelas que bˆki < 0 , xˆ r = min bˆki ; bˆki < 0 .
1≤ i ≤ m
}
Passo 2. Denote por aˆ rjq o elemento da linha r e da jotaqueésima coluna do
quadro corrente. Se aˆ rjq ≥ 0 para todo jq , pare; o problema dual é ilimitado
e o primal é inviável. Em caso contrário, selecione a coluna je do pivô pelo
seguinte teste da razão mínima:
sj s j
je = min j p0 ; − p = min − q ; aˆ rjq < 0 .
j p0 = j1 ,..., jn− m aˆ rj p jq = j1 ,..., jn− m ˆ
arjq
Passo 3. Efetue o pivoteamento em torno de aˆ rje e retorne ao passo 1.
minimizar z = 4 x1 + 3 x2
sujeito a : 2x1 + x2 ≥ 3
x1 + x2 ≥ 2
x1 , x2 ≥ 0.
Desejamos obter sua solução ótima por meio da aplicação do método dual
simplex tabular.
O quadro 3.9 exibe uma solução básica inviável, porém com s ≥ 0 .
Quadro 3.9: Quadro do simplex referente a uma solução básica inviável inicial
Base x1 x2 x3 x4 RHS
4 3 0 0 0 l1
x3 −2 −1 1 0 −3 l2
x4 −1 −1 0 1 −2 l3
– 141 –
A aplicação do método é como mostrada a seguir:
Quadro 3.10: Quadro do simplex após a execução dos passos 1 e 2 ( l2 é a linha do pivô)
↓
Base x1 x2 x3 x4 RHS
4 3 0 0 0 l1
← x3 −2 −1 1 0 −3 l2
x4 −1 −1 0 1 −2 l3
Quadro 3.12: Quadro do simplex após a execução dos passos 1 e 2 ( l3 é a linha do pivô)
↓
Base x1 x2 x3 x4 RHS
0 1 2 0 −6 l1
x1 1 1
2 − 1
2 0 3
2 l2
← x4 0 − 1
2 − 1
2 1 − 12 l3
– 142 –
Constatamos no quadro 3.13 que a viabilidade foi alcançada (vide as
duas últimas linhas da coluna RHS). Os custos reduzidos foram mantidos não
negativos durante todo o processamento. Consequentemente, o quadro con-
tém a solução ótima do PPL, que é x* = [1 1 0 0 ] com o valor da função
T
objetivo igual a 7.
Dentre as aplicações da dualidade em Programação Linear, destaca-se a
análise de sensibilidade, também conhecida por análise pós-otimização. Nessa
análise, partindo de um PPL resolvido, tendo acesso aos cálculos realizados,
é possível avaliar o efeito de alterações nos dados do problema sem que seja
necessário resolver o problema desde o início.
Outro aspecto extremamente interessante que decorre naturalmente do
estudo da dualidade está na interpretação econômica dos problemas primal e
dual e de suas soluções ótimas.
Para estudo da análise de sensibilidade e da interpretação econômica
sugerimos a leitura de (HILLIER; LIEBERMAN, 1995) e (BAZARAA;
JARVIS; SHERALI, 1997).
No próximo capítulo iniciaremos o estudo de processos estocásticos,
através das distribuições de probabilidades.
a ) maximizar x1
sujeito a: x1 + x2 ≤ 3
x1 + x2 ≥ 2
x1 , x2 ≥ 0.
b) minimizar x1
sujeito a: x1 + x2 = 2.
c) maximizar 2 x1 − x2
sujeito a: x1 + 0,005 x2 + x3 ≤ 3000
x2 − x3 ≥1
x2 ≥ 0, 0,1 ≤ x3 ≤ 8.
– 143 –
2. Quais dos seguintes problemas de otimização são problemas de PL? Jus-
tif ique.
a) minimizar 5 x3
sujeito a: x1 − x2 + x3 ≤ 1
x2 ≤ 0.
b) minimizar log( x1 + 1)
sujeito a: x1 + 2 x22 = 2
x1 , x2 ≥ 0.
c) minimizar − x1
sujeito a: x1 − x2 = 0
x1 , x2 ∈{0, 1} .
3. Desenhe conjuntos com zero, um, dois e uma inf inidade de pontos extremos.
4. Considere o PPL
minimizar z = x1 − x2
sujeito a: x1 + x2 ≤ 3
x1 ≤ 2
x2 ≤ 3
x1 , x2 ≥ 0.
Pede-se:
a) coloque o PPL no formato padrão;
b) verif ique que todos os pontos extremos são soluções básicas viáveis e vice-
versa; e
c) verif ique que o número de pontos extremos é menor do que ou igual ao
número de soluções básicas viáveis.
– 144 –
6. Use o método gráf ico para construir exemplos para um PPL:
a) com uma única solução ótima;
b) com uma inf inidade de soluções ótimas;
c) ilimitado; e
d) inviável.
7. Considere o PPL
minimizar − x1
sujeito a: x1 − x2 = 2
x1 , x2 ≥ 0.
Pede-se:
a) resolva graf icamente este problema;
b) para o conjunto de índices base IB = {1} e a solução básica viável x̂ = [ 2 0 ] ,
T
use o teorema 3.6 para concluir que este PPL é um problema ilimitado;
c) encontre a direção de aresta u ∈ℜ2 a partir de x̂, tal que u seja uma dire-
ção de descida, isto é, cT u < 0 ;
d) implemente o algoritmo 3.2 para este problema de PL.
8. Considere o PPL
minimizar x1
sujeito a: x1 + x2 = 2
x1 , x2 ≥ 0.
Pede-se:
a) resolva graf icamente este problema.
b) para a solução básica viável x̂ = [ 2 0 ] , use o teorema 3.5 para concluir que
T
10. Considere o problema do exemplo 3.10, agora, com um vetor do lado direi-
to b = [2 10]T . Resolva-o usando o algoritmo 3.2 e o método simplex tabular.
– 145 –
11. Consulte a página do Laboratório de Programação Linear (LabPL –
<http://www2.ucg.br/Institutos/LabPL/PaginaPrincipal.html>), para resol-
ver alguns problemas de PL em geral. Pratique algumas de suas resoluções
on-line e observe a existência de outros métodos de resolução.
– 146 –
IV
Distribuições de Probabilidade
– 147 –
estudadas as distribuições de probabilidade de variáveis discretas – a bino-
mial, a hipergeométrica, a uniforme e a distribuição de Poisson – e também as
distribuições de probabilidade de variáveis contínuas – a retangular ou uni-
forme contínua, a normal, a exponencial e a distribuição de Erlang.
Antes de iniciarmos o estudo das distribuições de probabilidade, fa-
remos uma breve revisão do conceito de probabilidade. Após essa revisão,
serão tratados os modelos empíricos e os modelos teóricos no estudo de pro-
babilidades.
4.1 Probabilidade
– 148 –
espaço amostral S associado a um experimento é simplesmente um conjunto
de resultados possíveis.
| A|
P( A) = , (4.1)
| S|
n n!
k = Cn = k!( n − k)! .
k
(4.2)
Exemplo 4.1: A cesta ilustrada na figura 4.1 contém seis bolas, sendo duas
pretas e quatro brancas.
– 149 –
Figura 4.1: Cesta com seis bolas
S = {{ b1 , b2 }, { b1 , b3 }, { b1 , b4 }, { b2 , b3 }, { b2 , b4 }, { b3 , b4 }, { b1 , p1 }, { b1 , p2 },
{ b2 , p1 }, { b2 , p2 }, { b3 , p1 }, { b3 , p2 }, { b4 , p1 }, { b4 , p2 }, { p1 , p2 }}.
A = {{ b1 , p1 }, { b1 , p2 }, { b2 , p1 }, { b2 , p2 }, { b3 , p1 }, { b3 , p2 }, { b4 , p1 }, { b4 , p2 }}.
| A| 8
P( A) = = .
| S | 15
– 150 –
CNn−−xD CDx
,
CNn
– 151 –
Aplicamos a def inição 4.2 e obtemos a solução:
| A | 16
P( A) = = ⇒ P( A) = 4 9 .
| S | 36
Uma forma alternativa para solucionar o exemplo é a seguinte: as proba-
bilidades de retirar-se uma bola branca e de retirar-se uma preta são, respecti-
vamente, 2 3 e 1 3 . Se desenvolvermos o binômio ( 23 + 13 )2 , obtemos:
2 2 0 1 1 0 2
2 1 2 1 2 1 2 1 4 4 1
+ = + 2 + = + + ..
3 3 3 3 3 3 3 3 9 9 9
A
f ( A) = . (4.3)
n
– 152 –
A frequência relativa f ( A) goza da seguinte propriedade: à medida que
o número de repetições do experimento aleatório for aumentado, a frequência
relativa baseada nesse número crescente de repetições tenderá a algum valor
numérico def inido. Essa propriedade é descrita formalmente no teorema 4.1,
que é atribuído a Bernoulli, 1713, e é conhecido como “primeira lei dos gran-
des números”.
– 153 –
Exemplo 4.3: Consideremos o lançamento simultâneo de duas moedas, cujo
espaço amostral é S = {(Ca, Ca), (Ca, Co), (Co, Ca),(Co, Co)} . A variável alea-
tória X representa o número de caras que aparecem. Na tabela 4.1, vemos a
associação existente entre o evento “cara”, a variável aleatória X e a probabi-
lidade P( X ).
– 154 –
Tabela 4.2: Distribuição de frequência de acidentes em um estacionamento
– 155 –
Figura 4.3: Distribuição de probabilidade do evento “soma dos pontos das faces de
dois dados”
∞
E( X ) = ∑ x P( x ),
i =1
i i (4.4)
– 156 –
Usando-se algumas propriedades da esperança matemática, pode-se ex-
pressar a def inição de variância conforme se vê em (4.6).
V ( X ) = E( X 2 ) − [ E( X )]2, (4.6)
CNn−−xD CDx
P ( X = x) = . (4.7)
CNn
– 157 –
A variância de uma variável hipergeométrica é dada pela expressão (4.9):
D D N − n
V (X) = n 1 − . (4.9)
N N N −1
Exemplo 4.6: Em um lote de doze peças do mesmo modelo, quatro são de-
feituosas. Ao se retirar aleatoriamente duas peças, qual é a probabilidade de
ambas serem defeituosas?
4
A probabilidade de retirarmos uma peça defeituosa é P( A) = .
12
Supondo que os eventos A e B sejam dependentes, ou seja, a peça re-
tirada no evento A afeta a probabilidade de retirada da segunda peça, a pro-
babilidade de retirarmos simultaneamente duas peças defeituosas é o produto
da probabilidade do evento A e a probabilidade do evento B tendo em vista
que A ocorreu. Assim,
4 3 1 .
P( A ∩ B) = P( A) × P( B A) = × =
12 11 11
– 158 –
tuosas de um lote de peças é um exemplo típico de aplicação da distribuição
hipergeométrica.
Pela def inição dada no início de seção 4.3.1, a propriedade referida pode
ser “o defeito das peças”. Portanto, temos D = 4 peças com esta propriedade;
N = 12 peças no lote.
Desejamos calcular a probabilidade de se retirar duas peças com defei-
to, sem reposição, então: a amostra retirada tem n = 2 itens; como queremos
duas defeituosas implica que o número de eventos é x = 2 ; portanto, a pro-
babilidade é
– 159 –
Def inimos a variável aleatória X como o número de sucessos nas n
tentativas. Logo, X pode assumir os valores 0, 1, 2, 3, ..., n. Para X = x, temos
x sucessos e n − x fracassos, então a distribuição binomial é expressa pela
relação (4.10):
P( X = x) = Cnx p x q n− x , (4.10)
em que:
Exemplo 4.7: Em um lote de doze peças do mesmo modelo, quatro são defei-
tuosas. São retiradas aleatoriamente duas peças, uma após a outra, com repo-
sição. Qual é a probabilidade de ambas as peças serem defeituosas?
– 160 –
1 2
responde à probabilidade complementar, q = 1 − p = 1 − = ou q = 8 12 .
3 3
Identif icamos os parâmetros n = 2 tentativas, x = 2 eventos. São duas
tentativas porque retiramos uma peça e depois a outra. Aplicamos a expres-
são (4.10) para o cálculo da probabilidade de ocorrer exatamente duas peças
defeituosas,
2 0
1 2 1
P( X = 2) = C22 = .
3 3 9
P( X < 3) = P( X = 0) + P( X = 1) + P( X = 2),
P( X < 3) = C200
(0, 2)0 (0,8)20 + C20
1
(0, 2)1 (0,8)19 + C202 (0, 2)2 (0,8)18 ,
P( X < 3) = 0, 206.
A soma de termos de probabilidades exibida anteriormente é denomina-
da probabilidade conjunta.
1
P ( X = x) = . (4.11)
n+1
– 161 –
A relação (4.11) é válida para os seguintes valores de X:
X = x = a, a + 1, a + 2, , a + ( n − 1), a + n.
n
E( X ) = a + (4.12)
2
e
n( n + 2) .
V (X) = (4.13)
12
O exemplo 4.9 mostra como são feitos os cálculos de probabilidades com
a distribuição uniforme discreta.
Exemplo 4.9: Considere uma variável aleatória discreta que pode assumir os
valores 3, 4, 5, 6 e 7. Supondo-se que a distribuição de probabilidade dessa
variável seja uniforme, qual é a probabilidade de que a variável aleatória te-
nha o valor 4? Qual é a probabilidade de que a variável tenha valores menores
ou iguais a 6? Determine também a média e a variância.
x = a, a + 1, a + 2, , a + ( n − 1), a + n,
x = 3, 3 + 1, 3 + 2, 3 + ( n − 1), 3 + n,
x = 3, 4, 5, 6, 7 ⇒ n = 4.
1 1 1
P( X = 4) = = = = 0, 20 .
n+1 4 +1 5
– 162 –
A probabilidade de que a variável aleatória X tenha valores menores ou
iguais a 6 é a probabilidade de termos os números 3, 4, 5 ou 6,
P( X ≤ 6) = 0, 20 + 0, 20 + 0, 20 + 0, 20 = 0,80 .
A média é
n 4
x = E( X ) = a + = 3+ = 5 .
2 2
A variância é
4(4 + 2)
V (X) = =2.
12
– 163 –
recebidas em um escritório, ou o número de horas que uma escola f ica sem
luz elétrica. Em outras palavras, a distribuição de Poisson descreve o número
de vezes que ocorre um evento que, embora certamente possa ocorrer muitas
vezes, é pouco provável que ocorra em um particular instante de observação.
Essa característica é típica de chegadas em uma f ila de espera.
A probabilidade de x ocorrências em um processo de Poisson com pa-
râmetro α é def inida pela relação (4.14):
αx
P ( X = x) = e −α , x ∈ Z+ . (4.14)
x!
– 164 –
Na distribuição de Poisson, a média e a variância são, respectivamente,
E( X ) = (4.15)
e
V ( X) = . (4.16)
uma chegada, P( X = 1) =
(4 × 1)1 e −4×1 = 0, 072,
1!
P( X = 2) =
( 4 × 1)
2
e −4×1 = 0,144.
duas chegadas,
2!
A probabilidade de ocorrerem chegadas de até dois acidentados em uma
hora é a probabilidade conjunta dos eventos analisados anteriormente:
P( X ≤ 2) = P( X = 0) + P( X = 1) + P( X = 2),
P( X ≤ 2) = 0, 018 + 0, 072 + 0,144,
P( X ≤ 2)) = 0, 234.
– 165 –
Dos dados, temos que o número médio de defeitos por componente é
α = 2, e o número de eventos é x = 6. Portanto, a solução é imediata:
26 −2
P ( X = 6) = e = 0, 012 .
6!
Exemplo 4.12: Uma companhia de seguros estima que 0,005% de uma popu-
lação sofra a cada ano de certo tipo de acidente. Qual é a probabilidade de a
companhia ter de pagar a mais do que três pessoas, dentre as dez mil segura-
das contra este tipo de acidente, em um dado ano?
0,00005 × 10.000
λ= = 0, 5 pessoas
ano .
1
x= 3
0, 5 x ´ e-0,5
P( X > 3, Dt = 1) = 1- P( X £ 3, Dt = 1) = 1- å ,
x =0 x!
P( X > 3, Dt = 1) = 1- 0, 998 = 0,002.
– 166 –
mais restrita a valores discretos. As alturas podem ser 1,89 metros ou 2,01
metros etc. Outro exemplo é se precisarmos medir uma temperatura ou uma
tensão elétrica, que certamente não são representadas por números inteiros.
Isto nos leva à consideração das variáveis aleatórias contínuas, que podem ser
def inidas em todo o conjunto real, ou em intervalos especif icados do mesmo
conjunto.
Para tratarmos das distribuições contínuas, considere as seguintes
def inições:
(b) ∫
−∞
f ( x) dx = 1 .
x2
P( x1 ≤ X ≤ x2 ) = ∫ x1
f ( x) dx .
x0
F( x0 ) = P( X £ x0 ) = ò f ( x) dx .
-¥
– 167 –
Podemos estender as def inições que envolvem variáveis aleatórias dis-
cretas para variáveis aleatórias contínuas, como é o caso da esperança mate-
mática e da variância.
E( X ) = ò xf ( x) dx , (4.17)
-¥
e a variância de X é
V ( X ) = ò x 2 f ( x) dx - [ E( X )]2 . (4.18)
-¥
2 x, se 0 < x ≤ 1
f ( x) =
0, caso contrário ,
– 168 –
∞ 1
∫ f ( x) dx = ∫ 2 xdx = x 2 =1.
1
0
−∞ 0
Então, f é uma fdp. Agora, seja X uma variável aleatória contínua, tal
que f é uma fdp de X. Assim,
0,5
0,5
P(0 £ X £ 1 2 ) = ò 2 xdx = x 2 0 = 14 .
0
A esperança matemática é
¥ 1
1
E( X ) = ò xf ( x) dx = ò 2 x 2 dx = 23 x 3 0 = 23 .
-¥ 0
Temos que:
∞ 1
1
∫
−∞
x 2 f ( x) dx = ∫ 2 x 3 dx = 42 x 4 0 = 12 .
0
V ( X ) = ò x 2 f ( x) dx - [ E( X )]2 = 12 - ( 32 )2 = 181 .
-¥
ïìï 0, se x£0
ï 2
F( x) = í x , se 0 < x £ 1
ïï
ïïî 1, se x > 1.
– 169 –
Figura 4.5: Gráf ico da f ( fdp de X)
– 170 –
4.5.1 Distribuição normal
( x−µ )2
1 −
x ∈ (−∞, ∞) f ( x) = e 2σ 2 . (4.19)
σ 2π
: média da população;
: desvio padrão;
: número irracional cujo valor aproximado é 3,1415;
e: número irracional cujo valor aproximado é 2,71828.
– 171 –
Figura 4.7: Ilustração da relação entre e x
– 172 –
A probabilidade de uma variável aleatória contínua normalmente dis-
tribuída ser menor do que ou igual a um número a é a área sob a curva normal
de −∞ a a. Matematicamente, essa probabilidade é dada pela relação (4.20):
a ( x−µ )2
1 −
P( X ≤ a) = ∫ σ 2π
e 2σ 2
dx , (4.20)
−∞
P( X > a) = 1 − P( X ≤ a) .
– 173 –
distribuição normal de probabilidades. Logo, a curva normal é um modelo.
Em simulações computacionais, é comum o emprego da distribuição nor-
mal truncada.
Como a integração indicada na equação (4.20) não pode ser efetuada
diretamente pelos métodos triviais de Cálculo Diferencial e Integral, usamos
tabelas para determinar as áreas sob a curva normal. Uma forma de facilitar
a obtenção das probabilidades normais é utilizar a forma normal padroniza-
da e apresentar os valores em tabelas. Utilizamos a variável normal padroni-
zada dada pela relação (4.21):
x−µ
z= . (4.21)
σ
(a) (b)
Figura 4.10: (a) Área sob a curva normal em X , P( −∞ < X ≤ x) ; (b) área sob a curva
x−µ
normal padronizada – com escala – em Z, P( −∞ < Z ≤ z = σ )
As tabelas 4.6 e 4.7, a seguir, apresentam valores das áreas sob a curva
normal padronizada.
– 174 –
Tabela 4.6: Áreas sob a curva normal padronizada de −∞ a z , z ≤ 0
x−µ
σ 0,09 0,08 0,07 0,06 0,05 0,04 0,03 0,02 0,01 0,00
−3,5 0,00017 0,00017 0,00018 0,00019 0,00019 0,00020 0,00021 0,00022 0,00022 0,00023
−3,4 0,00024 0,00025 0,00026 0,00027 0,00028 0,00029 0,00030 0,00031 0,00033 0,00034
−3,3 0,00035 0,00036 0,00038 0,00039 0,00040 0,00042 0,00043 0,00045 0,00047 0,00048
−3,2 0,00050 0,00052 0,00054 0,00056 0,00058 0,00060 0,00062 0,00064 0,00066 0,00069
−3,1 0,00071 0,00074 0,00076 0,00079 0,00082 0,00085 0,00087 0,00090 0,00094 0,00097
−3,0 0,00100 0,00104 0,00107 0,00111 0,00114 0,00118 0,00122 0,00126 0,00131 0,00135
−2,9 0,0014 0,0014 0,0015 0,0015 0,0016 0,0016 0,0017 0,0017 0,0018 0,0019
−2,8 0,0019 0,0020 0,0021 0,0021 0,0022 0,0023 0,0023 0,0024 0,0025 0,0026
−2,7 0,0026 0,0027 0,0028 0,0029 0,0030 0,0031 0,0032 0,0033 0,0034 0,0035
−2,6 0,0036 0,0037 0,0038 0,0039 0,0040 0,0041 0,0043 0,0044 0,0045 0,0047
−2,5 0,0048 0,0049 0,0051 0,0052 0,0054 0,0055 0,0057 0,0059 0,0060 0,0062
−2,4 0,0064 0,0066 0,0068 0,0069 0,0071 0,0073 0,0075 0,0078 0,0080 0,0082
−2,3 0,0084 0,0087 0,0089 0,0091 0,0094 0,0096 0,0099 0,0102 0,0104 0,0107
−2,2 0,0110 0,0110 0,0113 0,0116 0,0119 0,0122 0,0125 0,0129 0,0136 0,0139
−2,1 0,0143 0,0146 0,0150 0,0154 0,0158 0,0162 0,0166 0,0170 0,0174 0,0179
−2,0 0,0183 0,0188 0,0192 0,0197 0,0202 0,0207 0,0212 0,0217 0,0222 0,0228
−1,9 0,0233 0,0239 0,0244 0,0250 0,0256 0,0262 0,0268 0,0274 0,0281 0,0287
−1,8 0,0294 0,0301 0,0307 0,0314 0,0322 0,0329 0,0336 0,0344 0,0351 0,0359
−1,7 0,0367 0,0375 0,0384 0,0392 0,0401 0,0409 0,0418 0,0427 0,0436 0,0446
−1,6 0,0455 0,0465 0,0475 0,0485 0,0495 0,0505 0,0516 0,0526 0,0537 0,0548
−1,5 0,0559 0,0571 0,0582 0,0594 0,0606 0,0618 0,0630 0,0643 0,0655 0,0668
−1,4 0,0681 0,0694 0,0708 0,0721 0,0735 0,0749 0,0764 0,0778 0,0793 0,0808
−1,3 0,0823 0,0838 0,0853 0,0869 0,0885 0,0901 0,0918 0,0934 0,0951 0,0968
−1,2 0,0985 0,1003 0,1020 0,1038 0,1057 0,1075 0,1093 0,1112 0,1131 0,1151
−1,1 0,1170 0,1190 0,1210 0,1230 0,1251 0,1271 0,1292 0,1314 0,1335 0,1357
−1,0 0,1379 0,1401 0,1423 0,1446 0,1469 0,1492 0,1515 0,1539 0,1562 0,1587
−0,9 0,1611 0,1635 0,1660 0,1685 0,1711 0,1736 0,1762 0,1788 0,1814 0,1841
−0,8 0,1867 0,1894 0,1922 0,1949 0,1977 0,2005 0,2033 0,2061 0,2090 0,2119
−0,7 0,2148 0,2177 0,2207 0,2236 0,2266 0,2297 0,2327 0,2358 0,2389 0,2420
−0,6 0,2451 0,2483 0,2514 0,2546 0,2578 0,2611 0,2643 0,2676 0,2709 0,2743
−0,5 0,2776 0,2810 0,2843 0,2877 0,2912 0,2946 0,2981 0,3015 0,3050 0,3085
−0,4 0,3121 0,3156 0,3192 0,3228 0,3264 0,3300 0,3336 0,3372 0,3409 0,3446
−0,3 0,3483 0,3520 0,3557 0,3594 0,3632 0,3669 0,3707 0,3745 0,3783 0,3821
−0,2 0,3859 0,3897 0,3936 0,3974 0,4013 0,4052 0,4090 0,4129 0,4168 0,4207
−0,1 0,4247 0,4286 0,4325 0,4364 0,4404 0,4443 0,4483 0,4522 0,4562 0,4602
−0,0 0,4641 0,4681 0,4721 0,4761 0,4801 0,4840 0,4880 0,4920 0,4960 0,5000
– 175 –
Tabela 4.7: Áreas sob a curva normal padronizada de −∞ a z , z ≤ 3, 5
x−µ
σ 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
+0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
+0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
+0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
+0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
+0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
+0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
+0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
+0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
+0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8079 0,8106 0,8133
+0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
+1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
+1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
+1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
+1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
+1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
+1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
+1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
+1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
+1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
+1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
+2,0 0,9773 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
+2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
+2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
+2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
+2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
+2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
+2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
+2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
+2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
+2,9 0,9981 0,9982 0,9983 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
+3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99899 0,99893 0,99896 0,99900
+3,1 0,99903 0,99906 0,99910 0,99913 0,99915 0,99918 0,99921 0,99924 0,99926 0,99929
+3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950
+3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965
+3,4 0,99966 0,99967 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976
+3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983
– 176 –
O exemplo 4.14 mostra como calcular a probabilidade com distribuição
normal, utilizando-se a variável z e as tabelas.
14 − 20
z14 = = 0, 75.
8
σ = V ( X ) ⇒ σ = 30, 25 = 5, 5 kg .
– 177 –
P(60 ≤ X ≤ 70) .
70 − 65, 3
z70 =70 − 65, 3 = 0,85,
z70 = 5, 5 = 0,85,
e 60 −565, 3
5,
z60 =60 − 65, 3 = − 0, 96.
z60 = 5, 5 = − 0, 96.
5, 5
P( X ≤ 63, 2) .
Como a área total sob a curva normal é igual a um, vamos subtrair dessa
área o resultado obtido, P( X ≤ 63, 2), já que queremos calcular a probabilida-
de P( X > 63, 2):
– 178 –
P( X > 63, 2) = 1 − P( X ≤ 63, 2),
e 63, 2 − 65, 3
Pz(=X > 63, 2) = 1=− − P0,
( X38.
≤ 63, 2),
5, 5
63, 2 − 65, 3
z= 63, 2 − 65= ,−30, 38.
z63, 2 = 5, 5 = −0, 38.
5, 5
P( X ≤ 63, 2) = 0, 3520 .
Desse modo, esperamos que 0,648 × 600 ≅ 389 estudantes tenham peso
superior a 63,2 kg.
0, x< a
1
x ∈( −∞, ∞) f ( x) = , a ≤ x ≤ b. (4.22)
b− a
0, x>b
– 179 –
Figura 4.11: Gráf ico da fdp retangular ou uniforme de X
x1 x1
dx x1 − a
P( X ≤ x1 ) = ∫
a
f ( x) dx = ∫ b− a = b− a ,
a
a+ b
E( X ) = µ = (4.23)
2
e
( b − a)2
V (X) = σ 2 = . (4.24)
12
– 180 –
{
−b x x≥0
x ∈ (−∞, ∞) f ( x) = 0b,e ,x< 0 . (4.25)
∞
∞
∫ βe
−βx
dx = − e − β x 0
=1.
0
1 (4.26)
E( X ) = µ = ,
β
– 181 –
1
V (X) = σ 2 = . (4.27)
β2
P( X ≤ ∆t) = 1 − e − β ∆t . (4.28)
5
5 −0,5 ×
P( X ≤ ) = 1 − e 3 = 1 − e −0,83334
3
5
P( X ≤ ) = 0, 5654.
3
– 182 –
área de tráfego de informações em telecomunicações. Uma variável aleatória
contínua X tem distribuição de Erlang de probabilidades se a sua função den-
sidade de probabilidade (fdp) for dada por (4.29):
−x
x m−1 e a
, x≥0
( m − 1)! a
m
(4.29)
x ∈ ( −∞, ∞) f ( x) = ,
0, x<0
em que:
a: parâmetro de escala ou coef iciente de variação, a > 0 ;
m: parâmetro de fôrma ( m é um número inteiro positivo).
E( X ) = µ = am (4.30)
e
V ( X ) = σ 2 = a2 m . (4.31)
m−1 ( x a ) i
∑ i =0 i! .
−x
P ( X ≤ x) = 1 − e a
(4.32)
– 183 –
a) na modelagem de tempos de atendimento – ou de serviço – de sistemas de f ilas;
b) na modelagem do tempo de reparo e tempo entre falhas de equipamentos
e sistemas.
– 184 –
a apresentar uma distribuição aproximadamente bem comportada, desde que
a amostragem seja repetida. O signif icado dessa af irmação pode ser melhor
ilustrado com um exemplo.
– 185 –
5
Construiremos um histograma de frequências de y – ou de ∑ y – para
i =1
i
– 186 –
O código escrito com instruções do Matlab é mostrado na f igura 4.15.
– 187 –
4.7 Exercícios propostos
– 188 –
7. Resolva os problemas abaixo, supondo distribuição normal:
a) Um teste de escolaridade tem distribuição normal com média igual a 100
e desvio padrão igual a 10. Determine a probabilidade de um indivíduo
submetido ao teste ter nota: (1) maior que 120; (2) entre 85 e 115.
b) Uma lâmpada eletrônica tem duração média de 850 dias e desvio padrão
de 40 dias. Sabendo que a duração é normalmente distribuída, calcule a
probabilidade de uma lâmpada desse tipo durar: (1) entre 780 e 901 dias;
(2) menos de 780 dias.
– 189 –
V
Processos de Markov
– 191 –
cesso é discreto. Se T é um intervalo real, dizemos que o processo é de tempo
contínuo. Em geral, Xt representa uma característica mensurável de interesse
em um instante de tempo t. Formalmente, a notação indicada pela expressão
(5.1) def ine processo estocástico sobre um dado espaço de probabilidade:
{ Xt ; t Î T } . (5.1)
– 192 –
igual a certo valor x no tempo t, dado que a variável aleatória tenha assumi-
do os valores xn , xn-1 , , x0 , respectivamente, nos tempos tn , tn-1 , , t0 ,
é igual à probabilidade de a variável X ter valor igual a um certo valor x no
tempo t, dado apenas que a variável tenha assumido o valor xn no tempo tn .
A def inição 5.1 pode ser traduzida para a linguagem natural como se-
gue: um processo estocástico é um processo de Markov se o estado futuro do
processo, conhecido o estado presente, é independente do passado.
É fundamental no estudo de processos de Markov a noção de estado.
Propriedades em comum entre indivíduos ou objetos caracterizam o que se
designa por estado. A seguir, apresentam-se exemplos de objetos ou coisas que
possuem propriedades em comum:
– máquinas em uma linha de produção, cujos estados podem ser máquina
funcionando, máquina parada e em reparo, máquina parada aguardando
por reparo;
– uma população que migra de uma região para outra, podendo encontrar-se
em um dos seguintes estados: população ociosa, população empregada;
– safras de soja na região Centro-Oeste do Brasil, considerando-se as possibi-
lidades de estado: safra boa, safra ruim ou safra razoável.
– 193 –
No mundo real há diversos sistemas dinâmicos que podem ser modela-
dos como processos de Markov. Eis alguns exemplos de aplicações:
– planejamento de sistemas de atendimento a f ilas de espera, que são nor-
malmente modelados como processos de “nascimento e morte”;
– dimensionamento de recursos computacionais para servir a processos que
compartilham tempo e espaço;
– avaliação de equipamentos em operação em uma linha de produção indus-
trial ou em instalações complexas;
– estudo de fenômenos econômicos e movimentos sociais;
– análise de processos biológicos, como a evolução de certas espécies vivas,
seja para f ins de exploração comercial ou para a preservação;
– análise da evolução de certa epidemia em uma comunidade.
– 194 –
Pode-se iniciar o estudo de processos de Markov de tempo discreto
def inindo probabilidades de transição.
P( X1 = j | X0 = i) = pij
e
P( Xn = j | X0 = i) = pij ( n) .
– 195 –
i após um número n f inito de passos. Formalmente, para M + 1 estados,
pi ( n) = P( Xn = i) , para i = 0, 1, 2, ..., M.
Exemplo 5.1: Em uma certa região, durante o período de chuvas, que dura
cerca de seis meses a cada ano, os estados observados são dois: dias ensolarados
e dias chuvosos, os quais serão designados pelos índices 0 e 1, respectivamente.
Com base em observações históricas, foram obtidas para um passo, ou seja,
um dia, as probabilidades de transição supostas constantes. A um dia chuvoso
sucederá um dia chuvoso com probabilidade igual a 3 4 ou um dia ensolarado,
com probabilidade 1 4 . A dias ensolarados tanto pode suceder dias ensolarados
ou chuvosos, com probabilidades iguais de 1 2 . Desejamos estudar o regime de
chuvas dessa região, modelando o processo estocástico descrito como um pro-
cesso de Markov. Como primeira informação desse estudo, precisamos inferir
sobre o número esperado de dias chuvosos na estação das chuvas, se a tendên-
cia descrita pelas probabilidades permanecer inalterada.
– 196 –
Para encontrar a probabilidade do estado 0 em um passo, p0 (1) , pode-
mos utilizar o conceito de probabilidade total (MORGADO et al., 2004), o
qual para dois estados possui a seguinte expressão:
p0 (1) = P( X1 = 0) = P( X1 = 0 | X0 = 0) P( X0 = 0) + P( X1 = 0 | X0 = 1) P( X0 = 1) ,
p1 (1) = P( X1 = 1) = P( X1 = 1 | X0 = 1) P( X0 = 1) + P( X1 = 1 | X0 = 0) P( X0 = 0) ,
é p00 p01 ù
[ p0 (1) p1 (1)] = [ p0 (0) p1 (0)] ê ú.
êë p10 p11 úû
– 197 –
Analogamente, das expressões de cálculo de p0 (2) e p1 (2) , extraímos a
representação matricial mostrada a seguir:
é p00 p01 ù
[ p0 (2) p1 (2)] = [ p0 (1) p1 (1)] ê ú.
êë p10 p11 úû
2
é p00 p01 ù
[ p0 (2) p1 (2)] = [ p0 (0) p1 (0)] ê ú .
êë p10 p11 úû
n
é p00 p01 ù
[ p0 ( n) p1 ( n)] = [ p0 (0) p1 (0)] ê ú .
êë p10 p11 úû
– 198 –
Figura 5.1: Diagrama em árvore de probabilidades iniciando no estado 0
– 199 –
A tabela 5.1 mostra em detalhes os cálculos para a obtenção de p1 (4).
– 200 –
å p ( n) = 1 para todo i ∈ S. Com esse procedimento, def ine-se a matriz
j ÎS
ij
é p00 ( n) p01 ( n) p0 M ( n) ù
ê ú
ê p10 ( n) p11 ( n) p1M ( n) ú
P = êê
n ú. (5.6)
ê úú
ê p ( n) pM1 ( n) pMM ( n)úû
ë M0
é p00 p01 p0 M ù
ê ú
ê p10 p11 p1M ú
P = êê ú. (5.7)
ê úú
êp pM1 pMM úû
ë M0
1, se i = j
pij (0) = .
0, se i ≠ j
– 201 –
Com base na expressão (5.8) podemos concluir que a matriz P n é rela-
cionada à distribuição inicial de probabilidades, p(0) , def inida pela expressão
(5.5), e ao vetor de probabilidades de estados no instante n (para n passos),
através da expressão (5.9):
p( n) = p(0) P n . (5.9)
– 202 –
Identif icamos dois estados, portanto, M = 1, e o espaço de estados é
S= {0, 1}. O produto cartesiano, S´ S , é {(0,0), (0,1), (1,0), (1,1)}. A matriz de
probabilidades de transição para um passo é a seguinte:
é p00 p01 ù é 1 2 1
2ù
P=ê ú=ê ú.
êë p10 p11 úû êë 1 4 3 ú
4û
Figura 5.2: Diagrama de transição de uma cadeia de Markov com dois estados
– 203 –
O processo cuja cadeia de Markov foi apresentada no exemplo 5.2 pos-
sui ambos os estados recorrentes, porque, se considerarmos o estado i = 0 ,
conforme a figura 5.2, no próximo passo podemos percorrer o arco com pro-
babilidade p00 , obtendo f00 = 1 ; e, para i = 1 , ainda na figura 5.2, podemos
percorrer o arco com probabilidade p10 , e depois o de probabilidade p01 , re-
tornando para o mesmo estado i = 1 , obtendo f11 = 1 .
Estados transitórios, também conhecidos como não recorrentes, são
aqueles que, partindo do estado i, há uma probabilidade positiva de o proces-
so não retornar a esse estado (isto é, fii < 1 ). Estados recorrentes e transitó-
rios podem coexistir em uma mesma cadeia de Markov. A caracterização de
estados transitórios não é trivial e, por essa razão, os detalhes de processos de
Markov desse tipo não serão enfatizados neste livro.
Um tipo especial de estado recorrente é o estado absorvente, cuja def ini-
ção é estabelecida a seguir.
Exemplo 5.3: Considere um navio com dois sistemas propulsores, que são duas
turbinas idênticas. Seja Xn a variável aleatória tal que seu valor é o número de
turbinas em operação normal no passo n. Se uma das turbinas falhar, o navio
continua em operação, enquanto ela poderá ser consertada. Porém, se ambas fa-
lharem, o navio para, mas ainda haverá a possibilidade de que uma das turbinas
seja consertada, sendo esta a reignição do processo de Markov e não a transição
para outro estado. As probabilidades são as seguintes: se uma turbina que nunca
passou por reparo é boa no tempo tn-1, ela tem conf iabilidade de 90% no tempo
tn; porém, uma turbina que se estragou no tempo tn-1, após reparada, é apenas
60% conf iável no tempo tn. Suponha as probabilidades independentes e modele
o problema como um processo de Markov de tempo discreto.
– 204 –
O modelo de probabilidades sugerido é o binomial, já que os eventos são
independentes; ou seja, a falha de uma turbina não implica a falha da outra, e
cada turbina só pode ser encontrada em uma dentre duas condições.
– ambas em operação,
P( Xn = 2 | Xn-1 = 2) = p22 ,
p22 = 0, 9´0, 9 = 0,81 ;
– uma turbina boa e a outra estragada, dado que ambas estavam em operação,
P( Xn = 1 | Xn-1 = 2) = p21 ,
p21 = 0, 9´0,1 + 0,1´0, 9 = 0,18 ;
P( Xn = 0 | Xn-1 = 2) = p20 ,
p20 = 1- p22 - p21 = 0,01 ;
P( Xn = 2 | Xn-1 = 1) = p12 ,
p12 = 0, 9´0,6 = 0, 54 ;
P( Xn = 0 | Xn-1 = 1) = p10 ,
p10 = 0,1´0, 4 = 0,04 ;
P( Xn = 1 | Xn-1 = 1) = p11 ,
p11 = 1- p12 - p10 = 0, 42 .
– 205 –
O estado i é absorvente uma vez que entrando nele não se pode aban-
doná-lo, exceto se o processo partir novamente, portanto, p00 = 1 .
0 1 2
0é 1 0 0 ù
ê ú.
P = 1 ê0,04 0, 42 0, 54ú
ê ú
2 êë 0,01 0,18 0,81úû
0,04
Figura 5.3: Diagrama de transição de uma cadeia de Markov para o exemplo 5.3
– 206 –
Def inição 5.8 (Probabilidade limite ou probabilidade estacionária): Para
o estado j de uma cadeia de Markov, o elemento v j , para j = 0, 1, , M , é
def inido como a probabilidade limite v j = lim p j ( n) . Dizemos, também, que
n→∞
vj é a probabilidade do estado j em regime estacionário. Em consequência, o
vetor v = [ v0 v1 vM ] é o vetor de regime estacionário.
00 11
P =00é0éê0 11ù ùú ,
P = 1ê ê1 0ú ú
1 êë1ë 0úû û
Figura 5.4: Árvore de probabilidades de uma cadeia de Markov com dois estados
periódicos
– 207 –
Um exemplo de cadeia com estados aperiódicos é a cadeia cuja árvore
está ilustrada na f igura 5.1. Na árvore dessa f igura, é fácil visualizar que,
partindo-se do estado 0, é possível alcançar-se o estado 0 em um passo; de
modo análogo, se a partida for do estado 1 alcança-se o mesmo estado em
um passo.
Em contraposição aos estados absorventes, se todos os estados de uma
dada cadeia de Markov se comunicam, a matriz de probabilidades de transi-
ção dessa cadeia exibirá propriedades especiais. A def inição de estados ‘comu-
nicantes’ é dada em seguida.
00 11 22 00 11 22
00ééê** 00 **ùùú 00éé** 0* **ùùú
=11êêê** ú*ú e P = 1êêê0 úú
PP11 = ** *úú P12 = 1 êê* ** *0úú ,
êêê úú êê úú
2 êëë**
2 ** **úûû 22êëë** ** *0úûû
– 208 –
Figura 5.5: Diagrama de transição de uma cadeia de Markov em que o estado 1 é
absorvente
Teorema 5.1: Uma condição suf iciente para se identif icar se uma cadeia é ir-
redutível é verificar a existência de algum número n inteiro não negativo, tal
que pij ( n) > 0 para todo i e j.
é* 0 * 0ù
é* * 0ù ê ú
ê ú ê0 * 0 *ú
a) P = ê* 0 *ú ; e b) P = êê ú;
ê ú
ê0 * *ú ê* 0 * 0úú
ë û ê0 * 0 *úû
ë
– 209 –
verif ique, por meio da aplicação do teorema 5.1, se elas correspondem a ca-
deias irredutíveis ou equivalentemente regulares.
Tomamos a matriz P do caso (a) e a elevamos ao quadrado, obtendo:
é* * 0ù é* * 0ù é* * *ù
ê úê ú ê ú
P = ê* 0 *ú ê* 0 *ú = ê* * *ú .
2
ê úê ú ê ú
ê0 * *ú ê0 * *ú ê* * *ú
ë ûë û ë û
é* 0 * 0ù
ê ú
ê0 * 0 *ú
P = êê
2 ú.
ê* 0 * 0úú
ê0 * 0 *úû
ë
– 210 –
Estados recorrentes positivos que são aperiódicos são chamados de esta-
dos ergódicos. Consequentemente, cadeias que têm todos os estados ergódicos
são designadas cadeias ergódicas.
Teorema 5.2: Para uma cadeia irredutível e aperiódica, com todos os estados
recorrentes positivos, o vetor de probabilidades limites, v = [ v0 v1 vM ],
tal que v j = lim p j ( n) , é o único vetor de probabilidades de regime estacioná-
n→∞
rio e satisfaz às relações (5.10) e (5.11), a saber:
v = vP (5.10)
e
åv
j =0
j =1 , v j ³ 0 . (5.11)
Exemplo 5.6: Dado que a cadeia do exemplo 5.1 atende às condições do teo-
rema 5.2, isto é, é irredutível e aperiódica com estados recorrentes positivos,
calcule as probabilidades de regime estacionário.
– 211 –
é 12 1 ù 2
[ v0( k+1) v1( k+1) ] = [ v0( k ) v1( k ) ] ê 1 ú , com v(0) = [1 0] .
êë 4 3 ú
4û
k v( k ) v( k+1) v( k+1) - v( k )
0 [1 0] [0, 500 0, 500] [-0, 500 0, 500]
1 [0, 500 0, 500] [0, 375 0,625] [- 0,125 0,125]
2 [0, 375 0,625] [0, 344 0,656] [- 0,031 0,031]
3 [0, 344 0,656] [0, 336 0,664] [- 8´10-3 8´10-3 ]
4 [0, 336 0,664] [0,334 0,666] [-2´10-3 2´10-3 ]
Figura 5.6: Probabilidades dos estados em função do número de passos para dois
vetores de probabilidades iniciais distintos
– 212 –
Os gráf icos ilustrados na figura 5.6 merecem alguns comentários. No da
esquerda, o vetor de probabilidades iniciais é p(0) = [1 0] , enquanto que no
gráf ico da direita, tal vetor é p(0) = [0 1] . Observa-se que o vetor de probabili-
dades de regime estacionário obtido independe do vetor de probabilidades iniciais.
Regra geral: para qualquer cadeia irredutível aperiódica, as probabili-
dades limites dos estados v j = lim p j ( n) = lim pij ( n) existem e são indepen-
n→∞ n→∞
dentes do vetor de probabilidades iniciais p(0).
O leitor é convidado a voltar ao exemplo 5.1 e traçar um paralelo entre
a solução obtida aqui através do processo iterativo e os cálculos efetuados na-
quele exemplo.
Agora, o cálculo das probabilidades estacionárias será feito analitica-
mente. Para tal, com base na expressão (5.10), obtemos o sistema de equações:
é 12 1 ù ïì 1 v - 1 v = 0
[ v0 v1 ] = [ v0 v1 ] ê 1 ú Þ ïí 2 0 4 1
2
.
êë 4 3 ú
4û ïïî- 12 v0 + 14 v1 = 0
ìïï 12 v0 - 14 v1 = 0
í .
ïïî v0 + v1 = 1
– 213 –
1
mii = , para i = 0, 1, 2, ..., M, (5.12)
vi
M
E( f ( X )) = å vi f ( i) . (5.13)
i =0
Exemplo 5.7: Uma fábrica possui duas máquinas idênticas, essenciais ao pro-
cesso de manufatura, que são operadas continuamente, exceto quando estão
quebradas. Devido ao fato de serem muito sensíveis e quebrarem frequente-
mente, é necessário remunerar em tempo integral um técnico para reparar as
máquinas quando ocorrer alguma falha. Suponha que o intervalo de tempo
de observação seja de um dia e que a variável aleatória Xn representa o núme-
ro de máquinas quebradas no dia n. Os valores possíveis para a variável alea-
tória são Xn = 0, 1 e 2. Admita que durante cem dias de observações foram
anotadas as situações das duas máquinas, chegando-se às probabilidades de
transições dos estados para um dia que estão mostradas na matriz P:
0 1 2 0 1 2
0 é 20 20 60 ù 0 é0, 2 0, 2 0,6ù
ê ú ê ú
P = 1 ê 40 40 20ú 100 Þ P = 1 ê0, 4 0, 4 0, 2ú .
1
ê ú ê ú
2 êë 40 20 40úû 2 êë0, 4 0, 2 0, 4úû
– 214 –
a) na ocorrência de ambas as máquinas fora de operação, o número de dias
esperado para que esta situação ocorra novamente;
b) o número esperado de dias de ociosidade do técnico;
c) o custo por dia a longo prazo para manter as máquinas.
m22 = 1
0,3333 Þ µ22 = 3 dias.
µ00 = 1
0 , 4167 ⇒ µ00 = 2, 4 dias.
Finalmente, para o item (c), o custo por dia a longo prazo para manter as
máquinas é a esperança matemática da função custo em regime estacionário,
conforme (5.13).
– 215 –
é v0 v1 vM ù
ê ú
ê v0 v1 vM ú
lim P = êê
n ú. (5.14)
n®¥
ê úú
êv v1 vM úû
ë 0
n
é 12 1 ù 2é1 2 ù
lim P = lim ê 1
n
ú =ê 3 ú.3
n®¥ n®¥ ê 3 ú êë 1 3 2 ú
ë 4 4û 3û
– 216 –
A justificativa do cálculo da potência P n passa pelo seguinte desenvolvi-
mento: primeiramente, para k natural, prova-se que P k é igual à identidade
em (5.16):
éQ k Cùú
Pk = ê , (5.16)
ê0 I úû
ë
Teorema 5.3: Para uma cadeia de Markov com pelo menos um estado absor-
vente, o número esperado de passos para a absorção partindo-se do estado não
absorvente i é o somatório dos elementos da iésima linha da matriz ( I - Q)-1.
åQ
k =0
k
= Q0 + Q + Q 2 + ,
– 217 –
Antes de passarmos a um exemplo de aplicação, observe-se o estabeleci-
mento de mais um conceito importante sobre cadeias absorventes. Suponha-
se que o processo tenha partido do estado não absorvente i e que desejamos
calcular a probabilidade de absorção no estado j. Note-se que aqui o índice j
indica um estado absorvente.
Teorema 5.4: Para uma cadeia de Markov com pelo menos um estado absor-
vente, a probabilidade de o processo que partiu do estado não absorvente i
ser absorvido no estado j é o elemento da posição ( i, j ) da matriz que resulta
do produto ( I - Q)-1 C.
Uma forma possível para se concluir pela validade do teorema 5.4 é mos-
trar que o lim P n comporta-se como se mostra a seguir:
n®¥
é Q Cù
n
é0 ( I - Q)-1 Cù
lim P n = lim ê ú =ê ú. (5.17)
n®¥ n®¥ ê 0 I úû ê0 I ú
ë ë û
0 1 2
0é 1 0 0 ù
ê ú
P = 1 ê0,04 0, 42 0, 54ú ,
ê ú
2 êë 0,01 0,18 0,81úû
– 218 –
de que, pela expressão (5.15), obtemos:
2 1 0
2 é 0,81 0,18 0,01ù
ê ú
P = 1 ê0, 54 0, 42 0,04ú .
ê ú
0 êë 0 0 1 úû
−1
0,19 −0,18 44, 6154 13, 8462
( I − Q)−1 = = .
−0, 54 0, 58 41, 5385 14, 6154
2 1
2 44, 6154 13, 8462
( I − Q)−1 = .
1 41, 5385 14, 6154
– 219 –
As probabilidades de absorção são calculadas com base no teorema 5.4:
−1
0,19 −0,18 0, 01 44, 61154 13, 8462 0, 01 1, 000
( I − Q) C =
−1
= = ,
−0, 54 0, 58 0, 04 41, 5385 14, 6154 0, 04 1, 000
0
2 é1,000ù
( I - Q)-1 C = ê ú.
1 êë1,000úû
– 220 –
terrupção da pesca por redução do número de peixes e por poluição aquática
são simbolizados, respectivamente, por s4 e s5 , e são estados absorventes. As
probabilidades de transição foram levantadas por métodos estatísticos e estão
indicadas na matriz na forma canônica (5.15) mostrada a seguir:
s1 s2 s3 s4 s5
s1 é0 0,8 0 0,1 0,1ù
ê ú
s2 ê0 0,1 0,7 0,1 0,1ú
ê ú
P = s3 êê0 0, 5 0, 2 0, 2 0,1úú .
s4 êê0 0 0 1 0 úú
s5 êëê0 0 0 0 1 úûú
– 221 –
Os tempos médios para se alcançar a absorção, que são os números es-
perados de meses para atingir os estados absorventes, podem ser calculados
pela aplicação do teorema 5.3, de maneira análoga ao que foi feito no exemplo
anterior, isto é:
é1 0 0ù é0 0,8 0 ù é1 -0,8 0 ù
ê ú ê ú ê ú
I - Q = ê0 1 0ú - ê0 0,1 0,7 ú = ê0 0, 9 -0,7 ú
ê ú ê ú ê ú
ê0 0 1ú ê0 0, 5 0, 2ú ê0 -0, 5 0,8 ú
ë û ë û ë û
e
-1
é1 -0,8 0 ù s1 é1 1,73 1, 51 ù
ê ú ê ú
( I - Q) = ê0 0, 9 -0,7 ú Þ ( I - Q) = s2 ê0 2,16 1,89 ú .
-1 - 1
ê ú ê ú
ê0 -0, 5 0,8 ú s ê0 1, 35 2, 43ú
ë û 3 ë û
Tabela 5.3: Cálculos dos passos esperados antes da absorção a partir dos elementos da
matriz fundamental
– 222 –
s4 s5
s1 0, 58 0, 42
( I − Q)−1 C = s2 0, 59 0, 41 .
s3 0, 62 0, 38
¥ ¥
mii = å nfii ( n) , para å f ( n) = 1 ,
ii (5.18)
n=1 n=1
– 223 –
em que fij ( n) é a probabilidade de, em n passos, visitar o estado j, se o processo
partiu do estado i.¥
Dado que å fij ( n) = 1 para ( i, j ) Î S´ S, em que, S = {0,1, 2, , M },
n=1
as probabilidades fij ( n) podem ser calculadas pelas relações recursivas (5.20)
f01 (2) = p01 (2) - f01 (1) p11 = 0, 24 - 0, 2´0, 4 Þ f01 (2) = 0,16 .
– 224 –
Vamos exemplificar o uso da fórmula (5.19) e das relações recursivas
(5.20) na solução do item do exemplo 5.9, que pede o número de passos espe-
rados antes da absorção, o qual foi resolvido através da matriz fundamental.
f14 (2) = p14 (2) - f14 (1) p44 = 0,18 - 0,1´1 Þ f14 (2) = 0,08,
f14 (3) = p14 (3) - f14 (1) p44 (2) - f14 (2) p44 = 0, 3 - 0,1´1- 0,08´1 Þ f14 (3) = 0,12,
f14 (4) = p14 (4) - f14 (1) p44 (3) - f14 (2) p44 (2) - f14 (3) p44
f14 (4) = 0, 3624 - 0,1´1- 0,08´1- 0,12´1 Þ f14 (4) = 0,0624 ,
f14 (5) = p14 (5) - f14 (1) p44 (4) - f14 (2) p44 (3) - f14 (3) p44 (2) - f14 (4) p44
f14 (5) = 0, 4207 - 0,1´1- 0,08´1- 0,12´1- 0,0624´1 Þ f14 (5) = 0,0583, ;
para j=5:
f15 (1) = p15 (1) = 0,1 ,
f15 (2) = p15 (2) - f15 (1) p55 = 0,18 - 0,1´1 Þ f15 (2) = 0,08 ,
f15 (3) = p15 (3) - f15 (1) p55 (2) - f15 (2) p55 = 0, 244 - 0,1´1- 0,08´1 Þ
f15 (3) = 0,064 ,
f15 (4) = p15 (4) - f15 (1) p55 (3) - f15 (2) p55 (2) - f15 (3) p55
f15 (4) = 0, 2896 - 0,1´1- 0,08´1- 0,064´1 Þ f15 (4) = 0,0456 ,
– 225 –
f15 (5) = p15 (5) - f15 (1) p55 (4) - f15 (2) p55 (3) - f15 (3) p55 (2) - f15 (4) p55
– 226 –
Conforme já se mencionou no início deste capítulo, existem processos
estocásticos com características de processos de Markov em que o tempo não
é uma variável discreta, embora os estados sejam discretos. Essa classe de pro-
cessos markovianos será estudada na seção seguinte.
pij ( u, t) = P( Xt = j | Xu = i)
e
ïì1, se i = j
pij ( t, t) = ïí .
ïïî0, se i ¹ j
– 227 –
Figura 5.8: Probabilidade de transição de tempo contínuo
p j ( t) = P ( X t = j ) .
Com base no teorema da probabilidade total, podemos relacionar a pro-
babilidade de estado p j ( t) e a probabilidade de transição pij ( u, t), para 0 £ u £ t,
por meio do somatório (5.21), a seguir:
– 228 –
Def inição 5.14 (Taxa de transição e taxa de estado no instante de tempo):
A taxa de transição do estado i para o estado j é def inida pela função não
negativa
pij ( t, t + Dt)
t Î T = [0, ¥) gij ( t) = lim , i ¹ j,
Dt®0 Dt
e
gii ( t) = -å gij ( t) .
i¹ j
dp j ( t)
= - g j ( t) p j ( t) + å gij ( t) pi ( t) , para j=0, 1, 2, ... . (5.22)
dt i¹ j
– 229 –
Figura 5.9: Diagrama de transição de uma cadeia de Markov de tempo contínuo
g0 ( t) = g01 ( t) = 2 e g1 ( t) = g10 ( t) = 3 .
dp0 ( t)
= - g0 ( t) p0 ( t) + g10 ( t) p1 ( t)
dt
e
dp1 ( t)
= - g1 ( t) p1 ( t) + g01 ( t) p0 ( t) .
dt
dp0 ( t)
= -2 p0 ( t) + 3 p1 ( t)
dt
e
dp1 ( t)
= -3 p1 ( t) + 2 p0 ( t) .
dt
Ao resolvermos as equações diferenciais, obtemos as probabilidades instantâ-
neas dos estados 0 e 1, respectivamente, p0 ( t) e p1 ( t) . Para tal, usaremos a
seguinte propriedade, que deve verificar-se: para qualquer instante t, a soma
p0 ( t) + p1 ( t) = 1 . Depois de realizadas substituições, chegamos às seguintes
equações diferenciais de primeira ordem:
– 230 –
dp0 ( t)
+ 5 p0 ( t) = 3
e
dt
dp1 ( t)
+ 5 p1 ( t) = 2 .
dt
Embora equações diferenciais constituam um tema muito vasto da Ma-
temática, as equações diferenciais como as obtidas aqui são simples e admitem
soluções na forma de funções exponenciais. Supondo-se que o processo tenha
partido do estado 0, isto é, p0 (0) = 1 e p1 (0) = 0 , obtemos as soluções, que são
as probabilidades instantâneas dos estados:
3 2
p0 ( t) = + e-5 t
e
5 5
2 2
p1 ( t) = - e-5 t .
5 5
3
lim p0 ( t) = v0 v0 =
t®¥ 5
e
2
lim p1 ( t) = v1 v1 = .
t®¥ 5
A partir deste ponto, este texto restringir-se-á ao estudo de processos de Markov
de tempo contínuo, com foco para o próximo capítulo, sobre sistemas de f ilas
de espera.
– 231 –
são constantes com o passar do tempo. O exemplo 5.12 trata, portanto, de uma
cadeia de Markov tempo-homogênea.
Uma propriedade inerente às cadeias de Markov de tempo contínuo do
tipo tempo-homogêneas é que o futuro do processo é completamente def inido
no estado presente. Portanto, a distribuição da variável aleatória tempo de
permanência de um processo em um dado estado deve ser “sem memória”.
Designando Y tal variável aleatória, a seguinte probabilidade condicional
P ( Y £ t + r | Y ³ t) = P ( Y £ r )
– 232 –
Nas condições descritas, a equação de Kolmogorov para o jotaésimo es-
tado é conforme mostra a expressão (5.23), tendo em vista que a derivada da
probabilidade de estado em regime estacionário reduz-se a zero:
G = [ gij ] ,
P = [ pij ] ,
para gij conforme a def inição 5.14 e para pij conforme a def inição 5.12. En-
tão, um procedimento para a obtenção da matriz de transição é o seguinte:
– 233 –
ìï g
ïï pij = - ij , i ¹ j
ïï gii
ïï
í
ïï
ïï pii = 0;
ïï
ïî
ïìï pij = 0, i ¹ j
ï
í
ïï
ïïî pii = 1;
– 234 –
Utilizaremos o procedimento a saber: pela def inição 5.14, para i,
j=0, 1, 2,
g01 g
p00 = 0 , p01 = - = 1 , p02 = - 02 = 0 ;
g00 g00
g10 2 g 3
p11 = 0 , p10 = - = , p12 = - 12 = ;
g11 5 g11 5
como g22 = 0 ,
p22 = 1 , p20 = p21 = 0 .
0 1 2
0 0 1 0
P = 1 52 0 53 .
2 0 0 1
– 235 –
00 11 22
é-1 ù
00é- ê1 11 00ù ú
= ê ê ú3ú .
G = 1 ê22
G 1 ê --55 3ú ú
êê úú
22êë ë00 00 00úû û
vG = 0 , (5.25)
que pode ser solucionada para a obtenção de v com o auxílio da relação com-
plementar (5.26),
å v =1.
i =0
i (5.26)
å g v =0⇒ g
ij i jj v j + å gij vi = 0 ,
i =0 i¹ j
(1 + g jj )v j + å gij vi = v j .
i¹ j
– 236 –
Da def inição 5.14 resulta a seguinte expressão:
0 0 1 j M
1− ∑ g0 j g01 g0 j g0 M
0≠ j
1
g10 1− ∑ g1 j g1 j g1M
..
. 1≠ j
i
..
. gi 0 g i1 gij giM
v=v ,
j
..
g j0
g j1 1− ∑ gij g jM
. i≠ j
M
gM 0 gM1 gMj 1− ∑ gMj
M≠ j
v = vE , (5.27)
em que v é o vetor
v = [ v0 v1 v j vM ] .
– 237 –
Diante do exposto, a matriz estocástica E = [ eij ] tem seus elementos
def inidos como a seguir:
ìï
ïï e = gij , i¹ j
ïï ij
í
ïï
ïï eii = 1- å gij .
ïïî i¹ j
0 1 2
0 é0 1 0ù
ê ú
E = 1 ê 2 -4 3ú .
ê ú
2 êë0 0 1úû
– 238 –
Note que cada linha da matriz estocástica E tem soma igual a um; po-
rém, seus elementos não são probabilidades.
Quanto às cadeias, a mesma classif icação apresentada nas seções que
trataram de processos discretos no tempo é válida, exceto o conceito de
periodicidade, que está associado ao conceito de passos. Assim, teremos,
como antes, cadeias com estados recorrentes e cadeias com estados transi-
tórios. A classe das cadeias recorrentes compreende também as cadeias ab-
sorventes. Um estado i é considerado absorvente se gij = 0 para i ¹ j, de
modo que, uma vez que entra nesse estado, o processo é destinado a per-
manecer nele. Como def inimos anteriormente, em uma cadeia irredutível,
todo estado pode ser alcançado, partindo-se de qualquer outro estado.
Os processos de Markov homogêneo de tempo contínuo encontram apli-
cações em diversas áreas. A seguir será apresentado para estudo um exemplo
de aplicação à conf iabilidade, inspirado em Billinton (1970).
– 239 –
No esquema com dois transformadores em paralelo, a indisponibilidade do
sistema ocorrerá apenas se ambas as máquinas estiverem fora de operação,
porque implicará a interrupção do f luxo de energia. Os estados possíveis para
os transformadores são: ambos em operação (0 em falha), um em operação e o
outro em falha (1 em falha) e os dois fora de operação (2 em falha). A taxa de
falha é l e a taxa de reparo é m, ambas associadas a distribuições exponen-
ciais independentes. Suponhamos também que, se os dois transformadores
estiverem em operação, não é possível que ambos falhem simultaneamente,
e nem é possível consertar os dois ao mesmo tempo. O diagrama de transição
do processo está representado na f igura 5.13.
– 240 –
Para obter as respostas às duas primeiras questões, precisamos calcular
as probabilidades estacionárias dos estados. Para tal, utilizamos as relações
M
v = vE e åv
j =0
j = 1 , que são solucionadas pelo método analítico:
m2
v0 = ,
(l + m)2
2lm
v1 =
(l + m)2
e
l2
v2 = .
(l + m)2
λ2 .
v2 =
(λ + µ)2
m 2 + 2lm
v0 + v1 = .
(l + m)2
– 241 –
para alcançar a falha total do sistema é designado MTTF, que é a sigla para
mean time to failure (cuja tradução é tempo médio para a falha).
0 1 2
0 é1- 2l 2l 0ù
ê ú
E=1 mê 1- (l + m) l ú .
ê ú
2 êë 0 0 1 úû
0 1
0 é1- 2l 2l ù
Q= ê ú.
1 êë m 1- (l + m)úû
Calculamos a matriz fundamental ( I - Q)-1 :
1 él + m 2l ù
( I - Q)-1 = ê ú.
2l 2 êë m 2l úû
1 (3l + m)
MTTF = (λ + µ + 2λ ) ⇒ MTTF = .
2λ 2
2l 2
– 242 –
Para concluir o estudo deste capítulo, sugerimos a solução dos exercícios
propostos.
– 243 –
Tabela 5.5: Probabilidade (%) de compras em função do estado atual
Modele o problema como uma cadeia de Markov de tempo discreto com pas-
so igual a um ano. E, determine:
– 244 –
a) Calcule os percentuais de ocupação do solo nessa cidade em 2003, assu-
mindo que as probabilidades de transição para intervalos de cinco anos são
dadas pela seguinte matriz:
s1 s2 s3
s1 é 0 ,8 0 ,1 0 ,1 ù
ê ú
P = s2 ê 0 ,1 0 ,7 0 ,2 ú .
ê ú
s3 ê 0 0 ,1 0 ,9 ú
ë û
– 245 –
0 1 2 3
0 é0, 4 0, 4 0,1 0,1ù
ê ú
1ê 0 1 0 0ú
P= ê ê ú.
2 ê0, 3 0,1 0, 5 0,1úú
3 êë 0,1 0 0,6 0, 3úû
10. Um sistema com um único servidor aberto ao público tem seus tempos de
atendimento distribuídos exponencialmente com taxa igual a m . Os tempos en-
tre chegada dos usuários que demandam pelos serviços desses guichês também
exibem a distribuição exponencial com taxas iguais a l . Os usuários que acessam
o sistema surgem segundo o modelo de Poisson. O estado é caracterizado pelo
número de usuários presentes, 0 , 1, 2 , . Nessas condições, o sistema se enqua-
dra como um processo de nascimento e morte, podendo ser descrito como uma
cadeia de Markov inf inita de tempo contínuo. Desenhe o diagrama de transição
dessa cadeia e escreva as equações de Kolmogorov para o regime estacionário.
Supondo-se que l < m, com base em séries convergentes, prove que a expressão
para a probabilidade estacionária v0 em função do quociente r = l m é
v0 = 1- r ,
– 246 –
VI
Sistemas de Filas de Espera
– 247 –
Há um grande número de modelos matemáticos de f ilas de espera que
permite descrever diferentes situações observadas na prática. Existem mode-
los elementares para descrever sistemas de f ilas com um único atendente, em
que o número máximo de consumidores permitido no sistema é ilimitado,
assim como também aqueles sistemas que são tão complexos que se mostram
mais adequados para solução por meio de simulação computacional, em vez
da utilização de modelos analíticos.
Normalmente, quando se estudam sistemas de f ilas, procuram-se res-
postas sob a forma de medidas objetivas, capazes de orientar o projetista do
sistema. As grandezas mais comuns são:
– o tempo médio que um usuário aguarda pelo atendimento;
– o grau de ociosidade do sistema de atendimento;
– o número médio de usuários no sistema;
– o número médio de usuários na f ila.
Uma característica normalmente exibida pelos sistemas de f ilas mais
complexos é a incerteza dos dados de entrada. Por exemplo, na maioria dos
sistemas de f ilas, não é possível precisar exatamente em que instante um
usuário irá acessar o sistema, nem tampouco quanto tempo vai durar o seu
atendimento. Um sistema desse tipo é dito de natureza estocástica, e o seu
funcionamento é descrito como um processo estocástico.
Com o objetivo de descrever os principais modelos analíticos de sistemas
de f ilas de espera, apresentamos, a seguir, uma notação universalmente aceita:
a notação de Kendall-Lee. Também serão apresentados elementos básicos de
sistemas de f ilas.
– 248 –
Figura 6.1: Elementos básicos de um sistema de f ilas
– 249 –
mos especif icar uma distribuição de probabilidade para os tempos de serviço.
A distribuição mais comumente especif icada para tempos de serviço é a dis-
tribuição exponencial.
Diante do exposto, percebemos que pode haver uma grande variedade
de combinações de características de sistemas de f ilas, e que cada uma dessas
combinações implicará um modelo diferente. Daí, surge a notação atribuída a
Kendall e a Lee. O uso dessa notação tem a f inalidade de descrever os sistemas
de f ilas de espera de modo claro e objetivo.
A notação de Kendall-Lee consiste em rótulos dispostos em forma se-
quencial, como mostra a f igura 6.2, de modo que cada rótulo possui um sig-
nif icado.
– / – / – / – / – / –
Distribuição Distribuição Número de Disciplina Número Tamanho
dos tempos dos tempos servidores da f ila máximo de da fonte de
entre de serviço usuários no usuários
chegadas sistema
– 250 –
in-f irst-out), que signif ica “primeiro a chegar, primeiro a ser atendido”, a
capacidade do sistema é inf inita, e a fonte de usuários é ilimitada. Neste
caso podemos denotá-lo simplesmente M / G / 1, porque, de uma maneira
geral, quando a disciplina da f ila for FIFO, a capacidade do sistema for
inf inita e a fonte de usuários for ilimitada, podemos omitir os três últimos
campos.
A disciplina da f ila, além de FIFO, pode ser LIFO, que signif ica “último
a chegar, primeiro a ser atendido”, ou PRI, se, para o atendimento, é observa-
da alguma prioridade.
Na próxima seção, serão estudados os principais conceitos e parâmetros
de sistemas de f ilas. Posteriormente, serão obtidas expressões analíticas de cál-
culo de desempenho de sistemas de f ilas, iniciando-se o estudo pelo modelo
mais simples, que é o M / M / 1.
Alguns sinônimos são usados para o termo cliente, tais como consumi-
dor e usuário.
– 251 –
Figura 6.3: Esquema com uma classif icação de sistemas de f ilas
– 252 –
Aplicando-se a expressão (6.1) para calcular l, obtemos:
6 clientes
l= = 1, 2 clientes minuto .
5 minutos
– 253 –
que chegam ao sistema. Quanto ao sistema que recebe poucos clientes, segun-
da situação, que são rapidamente atendidos, podemos supor que não haverá
formação de f ilas. Esse é, com certeza, um sistema mal dimensionado. Neste
caso, naturalmente, algo deve ser feito para adequar l e m .
O parâmetro l é um dado muito importante nas análises de sistemas
de f ilas. Por essa razão, merece discussão mais aprofundada. Inicialmente
suponhamos a chegada de, por exemplo, cinco usuários a um sistema de
f ilas hipotético. Vamos supor também que foram anotados os instantes de
chegada dos usuários, denotados por ti , com i = 1, 2, 3, 4 e 5, medidos a
partir do instante zero. Esses tempos são marcados no eixo dos tempos,
como ilustra a f igura 6.4.
tempo
1o usuário: T1 = t1 – 0
2o usuário: T2 = t2 – t1
3o usuário: T3 = t3 – t2
4o usuário: T4 = t4 – t3
5o usuário: T5 = t5 – t4.
– 254 –
Figura 6.5: Tempos entre as chegadas de usuários a um sistema de f ilas
1 (6.3)
l= .
TMC
Uma expressão análoga à expressão (6.3) relaciona a taxa de atendimen-
to m e a média dos tempos de serviço, TMS ,
1 (6.4)
m= .
TMS
Diante do exposto, a segunda parte do exemplo 6.1 poderia ser resolvida
de forma direta, ou seja, pela aplicação da expressão (6.4), assim,
1
TMS = 40 segundos Þ m = ,
40
que, ao ser convertida para atendimentos por minuto, assume o seguinte
valor:
– 255 –
60
m= = 1, 5 clientes minuto .
40
E ( T ) = E ( Q ) + E ( S) . (6.5)
– 256 –
1.
W = Wq + (6.6)
µ
É importante frisar que a expressão (6.6) é geral; ou seja, sua validade
independe do modelo de f ilas estudado e de suas características intrínsecas.
A medida de efetividade referente ao número médio de usuários no sis-
tema é designada como L – do inglês length. Se n for o número de usuários no
sistema e Pn, a probabilidade de que existam n usuários no sistema, dado que
a variável aleatória é discreta, a esperança matemática E( X = n) é calculada
conforme (4.4) pela expressão (6.7):
¥
E( X = n) = L = å nPn . (6.7)
n=0
¥
E( X = nq ) = Lq = å ( n - s) Pn . (6.8)
n= s
– 257 –
De maneira análoga, temos uma relação entre Lq e Wq, nos seguintes
termos:
–
Lq = lWq , (6.10)
–
em que l é a taxa média de chegada.
Para o enésimo estado, a taxa de chegada é ln, sendo a probabilidade
correspondente dada por Pn. A taxa de chegada é uma variável aleatória do
processo estocástico. Dessa forma, a taxa média de chegada a longo prazo
∞
–
l deve ser calculada como o valor esperado, ou seja, l = ∑ ln Pn , sendo Pn
n=0
a proporção do tempo em que o processo está no estado n. Nos casos em que
as taxas de chegada l0, l1, ..., ln forem constantes e iguais a l e, além disso,
∞
–
∑n=0
Pn = 1 , teremos que l = l.
As expressões (6.6), (6.9) e (6.10) são extremamente importantes por-
que relacionam as quatro quantidades fundamentais, que são determinadas
na medida em que qualquer uma delas é encontrada. Além disso, essas rela-
ções são genéricas, ou seja, são válidas para todo tipo de modelo de sistemas
de f ila. Ao combinarmos as três equações obtemos uma quarta equação:
λ
L = Lq + . (6.11)
µ
A f im de tornar didático o estudo a seguir, esta seção será dividida nos
seguintes tópicos:
– 258 –
– sistemas de f ilas M / M / 1, que têm apenas um atendente (ou seja, um ser-
vidor ou um canal de atendimento) e capacidade inf inita;
– sistemas de f ilas M / M / s, que têm s atendentes e capacidade inf inita;
– sistemas de f ilas M / M / 1 / C, que têm um atendente e capacidade f inita C ;
– sistemas de f ilas M / M / s / C, que têm s atendentes e capacidade f inita C .
... ...
– 259 –
Em particular, o sistema de f ilas M / M / 1 pode ser visualizado pela f igu-
ra 6.6, observando-se que M é “markoviano” e 1 trata-se de um atendente, que
pode ser notado pela taxa m. Processos de Markov como o que está ilustrado
no diagrama da f igura 6.6 são conhecidos como processos de ‘nascimento e
morte’.
Primeiramente, procuraremos obter uma expressão para a probabilida-
de de serem encontrados n usuários no sistema, designados por Pn.
Partindo da lei de formação da matriz estocástica E, conforme a expres-
são (5.27),
e01 = l
e10 = m
...
en-1, n = l
en, n-1 = m
en, n+1 = l
en+1, n = m
... .
Nas posições da diagonal principal, obtemos os seguintes elementos:
e00 = 1- l
e11 = 1- (l + m)
...
en-1, n-1 = 1- (l + m)
en, n = 1- (l + m)
en+1, n+1 = 1- (l + m)
... .
– 260 –
Finalmente, o sistema de equações para a obtenção das probabilidades
estacionárias f ica da seguinte forma:
v = vE ,
[ v0 v1 vn-1 vn vn+1 ] = [ v0 v1 vn-1 vn vn+1 ] E,
e as probabilidades limites, v0, v1, ..., vn–1, vn, vn+1,... , são as probabilidades dos
estados, P0 , P1 ,, Pn-1 , Pn , Pn+1 ,,
[ P0 P1 Pn-1 Pn Pn+1 ] = [ P0 P1 Pn-1 Pn Pn+1 ] E ,
cuja matriz estocástica E com um número inf inito de estados é:
00 1 1 . . . n-
n–1
1 n n 1
n +n+1 ...
0 é1- l l 0 0 0 ù
ê ú
1 ê m 1- (l + m) 0 0 0 ú
ê ú
ê
ê úú
ê
E = n -1 ê 0 0 1- (l + m) l 0 úú .
ê
n ê 0 0 m 1- (l + m) l úú
ê ú
n +1 ê 0 0 0 m 1- (l + m) ú
ê ú
ëê ûú
A equação do estado zero é a seguinte:
P0 = (1- l ) P0 + mP1 ,
l
que nos permite escrever P1 = P0 .
m
Para n³ 1 , a enésima equação é dada por:
l
Partindo de P1 = P0 e da enésima equação para n = 1 calculamos P2 :
m
2
æl ö
P2 = çç ÷÷÷ P0 .
çè m ÷ø
– 261 –
Continuamos com esse procedimento e obtemos a solução procurada, Pn,
n
æl ö
Pn = çç ÷÷÷ P0 para n = 1, 2, , (6.12)
çè m ÷ø
em que, Pn é a probabilidade do estado n ; ou seja, a probabilidade de se en-
contrar exatamente n usuários no sistema.
A expressão para o cálculo de P0 é obtida usando-se o fato de que, para
¥
o modelo M / M / 1, å P =1 :
n=0
n
1
P0 = . (6.13)
¥ æ ön
l
çç ÷÷
å ç ÷÷
n=0 è m ø
l
Considerando a hipótese < 1 , a série do denominador de (6.13)
1 m
converge para . Consequentemente obtemos uma expressão sucinta
1- l m
para a probabilidade do estado zero; isto é,
P0 = 1- l m . (6.14)
– 262 –
Exemplo 6.2: Um pronto-socorro médico presta serviços de atendimento a
acidentados durante as 24 horas do dia. Em média, em um dia típico, 42 pa-
cientes recorrem aleatoriamente ao atendimento desse pronto-socorro. Um
paciente requer em média 25 minutos para receber os primeiros socorros, ser-
viço que é feito por uma única equipe de prof issionais. Suponha que o modelo
é de uma f ila M / M / 1 e efetue os seguintes cálculos:
a) a taxa média de chegada;
b) a taxa média de atendimento;
c) a probabilidade de que, em um intervalo de tempo de 1,5 horas, 2 pacien-
tes cheguem ao pronto-socorro;
d) a probabilidade de que um paciente selecionado aleatoriamente encontre
o pronto-socorro desocupado;
e) o percentual do tempo em que o pronto-socorro está ocupado;
f) se a única sala de espera do pronto-socorro comporta apenas um paciente,
qual é a probabilidade de algum paciente ter de esperar no corredor pelo
atendimento?
2,6252 -2,625
P( X = 2) = e ⇒ P(X=2) ≅ 0,2496.
2!
– 263 –
Então, em um intervalo de tempo de uma hora e meia, há uma probabi-
lidade de 24,96% de que cheguem dois pacientes ao pronto-socorro.
A probabilidade de um paciente encontrar o pronto-socorro desocupa-
do é dada por P0, que é a probabilidade do sistema vazio. Aplicamos então a
fórmula (6.14),
1,75
P0 = 1- l m Þ P0 = 1- @ 0, 2708 .
2, 4
1,75
r = lm Þr = @ 0,7292 .
2, 4
Pn>2 = 1- ( P0 + P1 + P2 ) .
Uma vez que conhecemos o valor de P0 pelo item (d) e o valor de r pelo
item (e), basta aplicarmos a fórmula (6.15), Pn = r n (1- r ) para n = 1, 2 . Segue-
se que
Pn>2 = 1- (0, 2708 + 0,1975 + 0,1440) Þ Pn>2 = 0, 3877 .
– 264 –
¥ ¥ ¥
L = å nPn = å nr n (1- r ) Þ L = (1- r )å nr n .
n=0 n=0 n=0
r
L= . (6.16)
1- r
L r
W= ÞW = . (6.17)
l l(1- r )
1 r 1 r r
Wq = W - = - = - ,
m l(1- r ) m l(1- r ) l
r r r - (1- r )r
Wq = - = ,
l(1- r ) l l(1- r )
r2
Wq = . (6.18)
l(1- r )
– 265 –
d) Número médio de usuários na f ila, Lq :
¥
Lq = å ( n -1) Pn
n=1
¥ ¥
= å nPn - å Pn
n=1 n=1
¥ ¥
= (1- r )å nr n - (1- r )å r n
n=1 n=1
r r
= (1- r ) - (1- r ) ,
(1- r ) 2
1- r
r r (1- r )
= - .
1- r 1- r
r2
Lq = . (6.19)
1- r
– 266 –
Primeiramente, vamos calcular os parâmetros do sistema a partir dos
dados de entrada. A taxa de chegada é l = 12 processos minuto . O tempo médio de
1
atendimento é , que foi dado como 3 segundos, portanto, a taxa de aten-
m
1
dimento é m = processos segundo . A taxa l está em processos minuto e a taxa m está
3
expressa em processos segundo . É preciso tornar coerentes as unidades dessas taxas.
ρ 3 15
W= ⇒ W= 5
= ⇒ W = 7, 5 segundos.
λ(1− ρ ) 1
5 (1− 5 ) 3 2
– 267 –
6.4.2 Sistema de f ilas M / M / s
... ...
– 268 –
A partir das equações escritas anteriormente, para n £ s , temos que:
( l m)
n
Pn = P0 , para n = 1, 2, , s (6.20)
n!
e, para n ³ s , temos que:
( l m)
s
Pn = P0 . (6.21)
s! s n- s
¥
Usamos do fato que å P = 1 e das relações (6.20) e (6.21), para obter-
n=0
n
1
P0 = ,
é s-1 ( l )n ù ( l
)
s
ê ú
ê å n! ú + s!(1- r )
m m
(6.22)
ëê n=0 ûú
( l m)
s
r
Lq = P0 . (6.23)
s!(1- r )2
( l m)
s
r l
L= P0 + . (6.24)
s!(1- r ) 2
m
( l m)
s
Wq = P0 . (6.26)
sm s!(1- r )2
( l m)
s
¥ ¥
Pn³ s = å Pn = å P0 ,
n= s n= s s! s n- s
( l m)
s
Pn³ s = P0 . (6.27)
s!(1- r )
– 270 –
A taxa de atendimento por servidor, m , é obtida do tempo médio de aten-
dimento. Portanto, m = 3 caminhões hora . A taxa de chegada é l = 2 veículos hora e,
2 1
do enunciado, concluímos que s = 2 e r = = .
2× 3 3
Aplicamos a expressão (6.22) para calcular P0 :
1 1
P0 = Þ P0 = ,
é s-1 ( l )n ù é 1 ( 2 3 )n ù
ú + ( m)
s 2
ú + ( 3)
l 2
ê ê
ê å n! ú ê å n! ú
m
P0 = 0, 5 .
2
( 2 3)
Pn³2 = ´0, 5 Þ Pn³2 @ 0,1667 .
2!(1-1 3)
( l m)
s 2
r ( 2 3) 1
3
Lq = P0 Þ Lq = ´0, 5 @ 0,083 clientes .
s!(1- r ) 2
2!(1-1 3)2
( l m)
s
r l 1 2
L= P0 + Þ L = + = 0,75 clientes .
s!(1- r ) 2
m 12 3
– 271 –
À primeira vista, o leitor pode estranhar os valores decimais obtidos
para as grandezas Lq e L, uma vez que as medidas possuem aparentemente
a conotação de grandezas inteiras. Entretanto, os valores decimais podem ser
explicados por se tratar de esperanças matemáticas que resultam de produtos
de probabilidades por números inteiros.
A teoria das f ilas de espera propicia uma ferramenta valiosa para orien-
tar o projetista no planejamento de sistemas de atendimento a usuários em
geral. O dimensionamento de um call center, por exemplo, requer conheci-
mentos de sistemas de f ilas. Neste contexto, sugerimos ao leitor a resolução
do exercício 6 deste capítulo, que trata do dimensionamento de um sistema
telefônico.
Na próxima seção serão estudados os sistemas de f ilas do tipo markovia-
no com um único atendente e capacidade do sistema f inita, dada pela quan-
tidade especif icada C.
...
– 272 –
C
Da análise do diagrama é imediata a constatação de que ∑ P = 1.
n=0
n
n
æl ö
Pn = çç ÷÷÷ P0 , para n = 0, 1 ..., C. (6.28)
çè m ÷ø
na expressão:
1- r
P0 = . (6.29)
1- r C+1
1- r n
Pn = r , para n = 0, 1, ..., C. (6.30)
1- r C+1
r (C + 1)r C+1
L= - . (6.31)
1- r 1- r C+1
As demais medidas de efetividade são obtidas utilizando-se as seguintes
relações:
Lq = L - r ,
W=L ,
l
e
Lq
Wq = ,
l
– 273 –
em que, de acordo com a seção 6.3.1,
C-1
l = å l Pn Þ l = l(1- PC ) . (6.32)
n=0
(1- r )r C (6.33)
PC = , para r < 1 .
1- r C+1
no sistema é r = l m = 3 4 erlang.
– 274 –
Dado que C = 4 e foi pedido o número médio de pacientes no laborató-
rio, L , aplicamos a fórmula (6.31),
r (C + 1)r C+1
L= - ,
1- r 1- r C+1
0,75 5´0,755
L= - ,
1- 0,75 1- 0,755
L @ 1, 444 pacientes.
(1- r )r C
PC = ,
1- r C+1
(1- 0,75)0,754
P4 = ,
1- 0,755
P4 0,104.
l = l(1- PC ) ,
– 275 –
6.4.4 Sistema de f ilas M / M / s / C
( λ µ)n
P , para n = 1, 2, , s −1,
n! 0
Pn = ( λ µ)n (6.34)
s! s n− s P0 , para n = s, s + 1, , C,
0, para n > C.
C
Além disso, ρ = λ < 1 e ∑ Pn = 1.
sµ n=0
A expressão para o cálculo da probabilidade do sistema ocioso é dada por:
1
P0 = .
( l m) ( l m)
n s
s C
n- s
å
n=0 n!
+
s!
å( )
n= s +1
l
sm
(6.35)
– 276 –
Para n - s = j ,
s+ j
C- s
( l m)
Lq = å j P0 ,
j =0 s! s j
P0 C- s l j
Lq = ( lm ) å j ( sm ) ,
s
s ! j =0
P0 C- s j
Lq = ( lm )
s
å jr ,
s ! j =0
P0 C- s j-1
Lq = ( lm )
s
r å jr .
s ! j =0
dr j
Mas, = jr j-1. Então,
dr
P0 C- s dr j
Lq = ( lm )
s
rå ,
s! j=0 dr
P0 d C- s j
Lq = ( lm )
s
r år ,
s! dr j=0
P0 d æç1- r C+ s+1 ö÷
Lq = ( lm )
s
r ç ÷.
s! dr èç 1- r ÷÷ø
( l m)
s
r
Lq = é1- r C- s - (C - s)r C- s (1- r )ù P0 . (6.36)
s!(1- r )2 ë û
– 277 –
De posse do valor Lq, o número médio de usuários no sistema, L, pode
ser calculado pela expressão (6.37).
s−1
L = Lq + s + ∑ ( n − s)Pn , (6.37)
n=0
( l m)
n
em que Pn = P0 .
n!
Uma fórmula alternativa de obtenção de L é
λ
L = Lq + , (6.38)
µ
em que, l = l (1− PC ) e
( µ)
C
λ
PC = P0 .
s! s C− s
W=L ,
l
e
Lq
Wq = .
l
Um sistema de fila derivado do modelo estudado nesta seção é o M / M / s / s,
em que não é permitida a formação de fila. Essa propriedade decorre da condição
s = C, que especifica que não há espaço destinado para a espera. As fórmulas desse
modelo podem ser obtidas a partir do modelo M / M / s / C, fazendo-se s = C nas
expressões. Dessa forma,
( µ) P , 0 ≤ n ≤ s ,
n
λ
Pn = 0
(6.39)
n!
– 278 –
1
P0 = n
. (6.40)
s
(λ µ)
∑
n=0 n!
– 279 –
lação l m , designada por r . O enlace é composto por circuitos – troncos ou
linhas –, e uma chamada é bloqueada e perdida se todos os circuitos estive-
rem ocupados. Em caso contrário, a chamada é aceita e utiliza um circuito
durante o seu tempo de retenção. Estudos sobre a distribuição estatística de
Poisson para cálculo da probabilidade de bloqueio podem ser sintetizados
na fórmula B de Erlang, ou fórmula de perda de Erlang, que é dada pela
expressão (6.41):
rN
Pb = N
N!
. (6.41)
å
k =0
rk
k!
Cabe notar que o modelo de Erlang é apenas parte de uma área do es-
tudo conhecido como teoria de f ilas. Tal área é capaz de tratar problemas
complexos de tráfego em redes compartilháveis pelos mais diversos tipos de
informação, tais como voz, dados e multimídia. No caso do tráfego de chama-
das telefônicas, o modelo de Erlang-B se aplica sem restrições.
A avaliação numérica da probabilidade Pb por meio da aplicação direta
da fórmula (6.41) oferece dif iculdades, uma vez que o número N de linhas
pode assumir valores muito altos. O problema advém tanto do cálculo do fa-
torial quanto do cálculo das potências de à medida que N cresce. Um méto-
do que contorna a ocorrência de overflow no cálculo numérico desta expressão
é proposto por Qiao & Qiao (1998).
No próximo capítulo serão estudadas simulações.
1. O modelo de chegadas de carros que seguem por uma via estreita e única a
um banco caixa rápido segue um processo de Poisson, com taxa média de um
carro por minuto. Os tempos de utilização são exponencialmente distribuí-
dos, com uma média de 45 segundos. Considerando que um carro esperará o
quanto for necessário, determine:
a) o número esperado de carros aguardando por utilização do caixa rápido;
b) o tempo médio que um carro espera pela utilização do serviço;
– 280 –
c) o tempo médio que um carro gasta no sistema; e
d) a probabilidade de que existam carros esperando na rua, se o estabeleci-
mento do banco pode somente comportar um máximo de 5 automóveis.
– 281 –
d) o tempo médio que um carro permanece no sistema; e
e) a probabilidade de que um carro tenha de parar nesse cruzamento.
Número de
Probabilidade do sistema Probabilidade do sistema ocupado,
servidores,
ocioso, P0 Pn³ s
s
3 0,0449 0,702 ® 70,2%
4 0,0737 0,320 ® 32%
5 0,0801 0,130 ® 13%
6 0,0816 0,047 ® 4,7%
– 282 –
7. Os aviões requisitam permissão para aterrissar em um aeroporto de pista
única a uma média de um a cada 4 minutos; a distribuição das requisições se
aproxima da distribuição de Poisson. Os aviões recebem permissão em uma
base FIFO, e aqueles que não têm condições de pouso imediato devido a con-
gestionamento de tráfego aéreo são colocados em espera. Mas, por restrições do
espaço aéreo da cidade, apenas 3 aviões podem permanecer em espera. O tempo
requerido para pouso varia com a experiência do piloto e é exponencialmente
distribuído com média de 3 minutos. Determine:
a) o número médio de aviões em espera;
b) o tempo médio que um avião aguarda até conseguir a permissão de pouso;
c) a probabilidade de que existam mais de dois aviões no sistema.
11. A partir das expressões (6.39) e (6.40) obtenha a fórmula (6.41) da proba-
bilidade de bloqueio.
12. Utilize como fonte bibliográf ica inicial o artigo de Qiao e Qiao (1998)
e procure compreender a proposta desses autores para avaliar a expressão
(6.41), contornando as dif iculdades numéricas computacionais verif icadas
quando o cálculo dessa expressão é efetuado de forma direta.
– 283 –
VII
Simulação Monte Carlo
– 285 –
–– circuitos elétricos que descrevem circuitos hidráulicos;
–– circuitos eletroeletrônicos que são projetados para descrever o comporta-
mento dinâmico de sistemas mecânicos;
–– modelos matemáticos.
– 286 –
7.1 Geração de números aleatórios
– 287 –
Introduz-se no programa principal uma rotina geradora de números ale-
atórios que é acionada toda vez que for necessária durante o processo de
simulação. Desse modo, são gerados números pseudoaleatórios. Uma se-
quência pseudoaleatória de números não é rigorosamente aleatória por-
que é obtida pelo uso de uma regra matemática pref ixada, totalmente
determinística.
O conceito de congruência para números inteiros pode ser formulado
como segue: sejam dados a, r e m números inteiros. Diz-se que a é congruente a
r módulo m, e escreve-se a ≡ r (mod m), quando existe um número inteiro q tal
que r = a – qm. Do ponto de vista computacional, denotaremos r ← a mod m.
A fórmula empregada por esses geradores, chamada de congruencial,
tem a seguinte forma: kxi ≡ xi+1(mod m), para cada i=1, 2, ..., que será deno-
tado por
x ← k x mod m, (7.1)
i+1 i
isto é, xi+1 é o resto da divisão de kxi por m, de forma que, dados os valores k
e m e o valor inicial – chamado semente – x1, pode-se gerar uma sequência de
valores equiprováveis independentes. A escolha dos valores k e m é crucial na
ef iciência e no tamanho do ciclo de valores gerados. Muitos autores sugerem
para essas variáveis, em geral, valores que sejam elevados, ímpares e de pre-
ferência primos.
Wichmann & Hill (1982) apresentam um gerador desse tipo, que, se-
gundo os autores, apresenta um ciclo que excede 2,78 × 1013. Para se ter uma
ideia do tamanho desse ciclo, se um computador gerasse continuamente mil
números por segundo, a sequência não se repetiria em um tempo inferior a
880 anos!
A função de geração de números pseudoaleatórios proposta por Wichmann
& Hill (WH) produz números uniformemente distribuídos entre 0 e 1 e tem seus
passos conforme descreve o algoritmo 7.1.
Para i = 1, ..., n
ix ← 171ix mod 30.269
iy ← 172iy mod 30.307
– 288 –
iz ← 170iz mod 30.323
xi ← parte fracionária da soma ix iy iz
30.269 + 30.307 + 30.323 .
– 289 –
A seguir, resolveremos um exemplo que ilustra a aplicação dos procedi-
mentos da simulação Monte Carlo de um problema com uma única variável
aleatória usando etiquetas.
– 290 –
Passo 1 – Distribuição de demanda:
Como são cem ocorrências, a tabela 7.2 mostra as frequências relativas a cem.
Tabela 7.2: Frequência relativa de vendas
Número de vendas Frequência relativa
0 0,05
1 0,10
2 0,15
3 0,30
4 0,25
5 0,15
– 291 –
Passo 4 – Sorteio dos números aleatórios:
Sobre o sorteio de números aleatórios temos de considerar o seguinte:
• a previsão é para dez dias, então vamos sortear um total de dez números;
• as etiquetas contêm dois dígitos, por isso, os números aleatórios devem ser
também de dois dígitos.
26 39 01 49 17 42 05 37 69 53
Dias 1o 2o 3o 4o 5o 6o 7o 8o 9o 10o
Número previsto de vendas 2 3 0 3 2 3 1 3 4 3
– 292 –
7.2.1 Exemplo em Programação Linear
Frequência relativa
Valores de x Frequência relativa Etiquetas
acumulada
10 0,20 0,20 00-19
12 0,30 0,50 20-49
14 0,50 1,00 50-99
Frequência relativa
Valores de y Frequência relativa Etiquetas
acumulada
8 0,40 0,40 00-39
9 0,50 0,90 40-89
10 0,10 1,00 90-99
– 293 –
As tabelas 7.9 e 7.10 referem-se às simulações para valores de x e y, res-
pectivamente. Isto signif ica que para o primeiro número sorteado igual a 38
para x, corresponde, no quadro de etiquetas da tabela 7.7, ao valor de x igual
a 12, enquanto que o número 34 gerado para y corresponde, no quadro de
etiquetas da tabela 7.8, ao valor de y igual a 8. O raciocínio é o mesmo para os
demais números das tabelas 7.9 e 7.10.
Números
38 91 18 89 71
aleatórios
x 12 14 10 14 14
Números
34 41 69 04 51
aleatórios
y 8 9 9 8 9
Através das tabelas 7.7, 7.8, 7.9 e 7.10, o valor médio de z é dado pelo
somatório dos seguintes valores:
– 294 –
Exemplo 7.3: O tempo de atendimento de um caixa em um supermerca-
do foi anotado. As anotações foram efetuadas durante um período consi-
derado satisfatório para o treinamento do operador do caixa, de modo a
garantir que sua rapidez seja estável. Os resultados estão compilados na
tabela 7.11.
– 295 –
Tabela 7.13: Quadro de etiquetas
Resta-nos agora sortear cinco números aleatórios (um para cada cliente)
de três algarismos e localizar os números sorteados nas classes do quadro de
etiquetas na tabela 7.13. Vamos sortear os números aleatórios de três dígitos,
que são os mostrados a seguir:
Clientes A B C D E
Número sorteado 053 808 011 226 397
Tempo de atendimento (minutos) 2 8 2 4 6
– 296 –
Determinar o número de simulações computacionais equivale a deter-
minar a priori, ou seja, antes de realizar o experimento aleatório, o número de
repetições ou de observações de um processo de amostragem. A obtenção de
uma fórmula de cálculo do número de simulações fundamenta-se no teorema
do limite central (vide seção 4.6) e no conceito de intervalo de conf iança.
P ( I £ q £ S) = 1 - .
– 297 –
Exemplo 7.4: Se o intervalo de conf iança de uma pesquisa é 95%, isso signif ica
que, a cada 100 entrevistas feitas pela mesma metodologia, 95 apresentarão
os mesmos resultados. Quais são os valores das abscissas da variável aleatória
normal padronizada que representa o parâmetro dessa pesquisa?
Figura 7.1: Intervalo de conf iança e a área sob a curva da distribuição normal entre
dois limites
– 298 –
s s
x - z 2 £ m £ x + z 2 ,
n n
s s
P( x - z 2 £ m £ x + z 2 ) = 1- ,
n n
em que
x: média da amostra;
s: desvio padrão amostral;
n: número de elementos da amostra;
abscissas da normal padronizada.
z 2 e -z 2 :
– 299 –
2
æ100z 2 s ÷ö
n = çç ÷ . (7.2)
çè ex ÷÷ø
2
æ100 z 2 s ÷ö æ100´1,645´5 ö2
ç
n=ç ÷ = çç ÷÷ @ 270,6 Þ n= 271 repetições.
çè ex ÷ø÷ çè 2, 5´ 20 ø÷
– 300 –
A
A = ò f ( x) dx . (7.3)
a
– 301 –
N
• Calculamos a relação A , que nos dá a frequência relativa de pontos
dentro da área A. N
A área do retângulo é ( b - a) h , base multiplicada pela altura. A rela-
NA
ção é a proporção da área do retângulo que está sob a curva. Portanto,
N
quando o número de pontos sorteados, N, tender ao inf inito, o valor AS da
fórmula (7.4) tenderá para a área procurada, ou seja, AS A,
NA
AS = ( b − a) h . (7.4)
N
N
1
f=
N ∑ f ( x ),
i=1
i (7.5)
em que:
∫ a
f ( x) dx ≈ ( b − a) f . (7.6)
– 302 –
7.5 Exercícios propostos
1. Considere o algoritmo
Nesse algoritmo, a notação êëê my úûú signif ica a parte inteira da divisão do nú-
mero y pelo número m. Programe esse algoritmo com as seguintes escolhas
respectivas: para x0, k e m: 2, 8 e 10. Ressalte-se que a escolha de m depende
da representação numérica do computador. Normalmente, é sugerida a fór-
mula m = 2b-1 + 1, sendo b o número de bits da máquina. Para x0 é sugerida
a escolha de um número ímpar. Para k uma escolha possível é k = 16.807 .
Outras escolhas para k são: k = 8.271 e k = 69.621. Se a máquina possuir 32
bits, então m= 2.147 .483.647 (JAIN, 1991).
k
( oi - ei )2
D=å .
i =1 ei
– 303 –
qui-quadrado com k -1 graus de liberdade. A hipótese básica de que as
observações provêm da distribuição especif icada não pode ser rejeitada a um
nível de signif icância se o coef iciente D é menor do que o c12- ; k-1. Os
valores da distribuição c12- ; k-1 para o intervalo de conf iança 1- e k -1
graus de liberdade são dados na tabela 7.15, obtida de Lopes (1999).
Tabela 7.15: Abscissas da distribuição c que limitam áreas à sua direita
2
k -1 Probabilidades (áreas)
0,005 0,01 0,025 0,05 0,1 0,9 0,95 0,975 0,99 0,995
1 7,8794 6,634891 5,023903 3,841455 2,705541 0,015791 0,003932 0,000982 0,000157 0,000039271
2 10,59653 9,210351 7,377779 5,991476 4,605176 0,210721 0,102586 0,050636 0,02010 0,010024667
3 12,83807 11,34488 9,348404 7,814725 6,251394 0,584375 0,351846 0,215795 0,114832 0,071723452
4 14,86017 13,2767 11,14326 9,487728 7,779434 1,063624 0,710724 0,484419 0,297107 0,206983634
5 16,74965 15,08632 12,83249 11,07048 9,236349 1,610309 1,145477 0,831209 0,554297 0,411750815
6 18,54751 16,81187 14,44935 12,59158 10,64464 2,20413 1,63538 1,237342 0,872083 0,675733351
7 20,27774 18,47532 16,01277 14,06713 12,01703 2,833105 2,167349 1,689864 1,239032 0,989250877
8 21,95486 20,09016 17,53454 15,50731 13,36156 3,489537 2,732633 2,179725 1,646506 1,344402736
9 23,58927 21,66605 19,02278 16,91896 14,68366 4,168156 3,325115 2,7003389 2,087889 1,734911384
10 25,18805 23,20929 20,4832 18,30703 15,98717 4,865178 3,940295 3,246963 2,558199 2,155845379
11 26,75686 24,72502 21,92002 19,67515 17,27501 5,577788 4,574809 3,815742 3,053496 2,603201921
12 28,29966 26,21696 23,33666 21,02606 18,54934 6,303796 5,226028 4,403778 3,57551 3,073785001
Resolva: Mil números aleatórios são gerados utilizando-se o algoritmo 7.2, por
exemplo, com nível de signif icância = 0,1. Podemos af irmar que os números
gerados são uniformemente distribuídos no intervalo (0,1)? Como sugestão para a
solução do problema, classif ique os números na forma de um histograma com 10
células a intervalos de 0,1, entre 0 e 1, e preencha, em seguida, a tabela 7.16.
Tabela 7.16: Planilha para a realização do teste c sobre mil números aleatórios
2
(observado - esperado)2
Célula observado, oi esperado, ei
esperado
1 100
2 100
3 100
4 100
5 100
6 100
7 100
8 100
9 100
10 100
Total 1000
– 304 –
3. Durante um certo período do ano de 2005, uma concessionária de veículos
fez inúmeras anotações sobre o número de carros vendidos diariamente. Os
100 resultados observados foram: para vendas diárias de 0, 1, 2, 3, 4, e 5 carros,
os números de ocorrências foram, respectivamente, 5, 10, 15, 30, 25, e 15. Do
ponto de vista da simulação Monte Carlo, os números aleatórios gerados são:
14, 74, 24, 87, 07, 45, 26, 66, 27 e 94. Qual deverá ser a projeção das vendas de
veículos nos próximos 10 dias? Esse resultado é conf iável? Justif ique.
– 305 –
a) Os clientes chegam para lavar seus carros com a distribuição de intervalos
entre chegadas mostrada na tabela 7.17.
b) O tempo para completar uma lavagem é distribuído uniformemente no
intervalo [8, 14] em minutos.
c) O proprietário do posto verif icou que, no sistema atual, as longas f ilas
aguardando pelo serviço têm levado a reclamações de clientes. Reconhe-
cendo que precisa melhorar o serviço, contratou os serviços de um consul-
tor da área de Pesquisa Operacional. Esse estudo servirá para orientar o
proprietário do estabelecimento sobre a melhor decisão a ser tomada.
Intervalo entre
Ponto médio Probabilidade F( x)% Etiquetas
chegadas (minutos)
0,0 – 5,0 2,5 0,353
5,0 – 10,0 7,5 0,229
10,0 – 15,0 12,5 0,148
15,0 – 20,0 17,5 0,096
20,0 – 25,0 22,5 0,062
25,0 – 30,0 27,5 0,041
30,0 – 35,0 32,5 0,027
35,0 – 40,0 37,5 0,018
40,0 – 45,0 42,5 0,012
45,0 – 50,0 47,5 0,008
50,0 – 55,0 52,5 0,006
– 306 –
Quadro 7.1: Fluxo do serviço de lavagem de veículos no sistema atual
A B C D E F G H I
Ordem Intervalo Instante da Instante da Instante do Instante Tempo Tempo que o
Duração do
do entre chegada no entrada na início do da saída que o usuário usuário permanece
atendimento
usuário chegadas sistema f ila atendimento do sistema f ica na f ila no sistema
1
2
3
4
5
6
– 307 –
7
8
9
10
11
12
13
14
15
Médias
REFERÊNCIAS
– 309 –
FOGLIATTI, M. C.; MATTOS, N. M. C. Teoria de filas. Rio de Janeiro:
Interciência, 2007. 290p.
FOULDS, L. R. Combinatorial optimization for undergraduates. Undergraduate:
texts in mathematics. New York: Springer-Verlag, 1984. 227p.
GARFINKEL, R. S.; NEMHAUSER, G. L. Integer programming. New
York: J. Wiley & Sons. 1972. 427p.
GOLDBARG, M. C; LUNA, H., P. L. Otimização combinatória e programação
linear: modelos e algoritmos. 2. ed. Rio de Janeiro: Campus, 2005. 536p.
GOLDFARB, D.; TODD, M. J. Linear programming. In: NEMHAUSER,
G. L. et al. (Ed.). Handbooks in OR&MS. North-Holland: Elsevier Science
Publishers; 1989. p. 73-170, v. 1, Chapter II.
GONZAGA, C. C. Algoritmos de Pontos Interiores para Programação Linear.
17o Colóquio Brasileiro de Matemática, IMPA/CNPq, Minicurso, 1989.
HILLIER, F. S.; LIEBERMAN, G. J. Introduction to operations research. 6. ed.
New York: McGraw-Hill, 1995. 998p.
JAIN, R. The art of computer systems performance analysis: techniques for
experimental design, measurement, simulation and modeling. New York: J.
Wiley, 1991. 685p.
LABORATÓRIO de Programação Linear: <http://www.ucg.br/Institutos/
LabPL/Index.html>.
LITTLE, J. D. C. A proof for the queuing formula: L=lW. Operations
Research, v. 9, n. 3, p. 383-387, 1961.
LOPES, P. A. Probabilidades e estatística. Rio de Janeiro: Reichmann &
Affonso. 1999. 174p.
LUENBERGER, D. Linear and monlinear programming. New York: Addison
Wesley, 2003. 491p.
MACHADO, H. V. Programação Linear. 10o Colóquio Brasileiro de
Matemática, Poços de Caldas/MG, 1975.
MACULAN, N.; FAMPA, M. H. C. Otimização linear. Brasília: Ed. UnB,
2006, 310p.
MACULAN, N.; PEREIRA, M. V. F. Programação linear. São Paulo: Atlas, 1980.
MENEZES, M. A. F. Programação Linear. Disponível em: <http://www2.ucg.
br/Institutos/LabPL/Arquivos/LivroPL_MAFM.pdf>. Acesso em: 20 jan. 2010.
METROPOLIS, N.; ULAM, S. The Monte Carlo Method. Journal of the
American Statistical Association. n. 44,p. 335-341, 1949.
– 310 –
MEYER, P. L. Probabilidade: aplicações à estatística. Tradução de Ruy de C.
B. Lourenço. Rio de Janeiro: Livros Técnicos e Científ icos, 1980. 391p.
MORETTIN, L. G. Estatística básica: probabilidade. 7. ed. São Paulo:
Pearson, 1999. v. 1. 210p.
MÜLLER, V. M. Um modelo de programação linear para um problema
agrícola. 2004. 56p. Monograf ia (Projeto Final de Curso) – Departamento de
Computação, Universidade Católica de Goiás, Goiânia. 2004.
NELSON, B. Stochastic modeling analysis and simulation. McGraw-Hill, 1995.
321p.
NELSON, R. Probability stochastic processes and queueing theory: the
mathematics of computer performance modeling. New York: Springer-
Verlag. 1995. 583p.
QIAO, S.; QIAO, L. A robust and eff icient algorithm for evaluating Erlang B
formula. McMaster University, Canada, 1998. Disponível em: <http://cas.
mcmaster.ca/~qiao>. Acesso em: 24 jun. 2006.
RAVINDRAN, A; PHILIPS, D. T.; SOLBERG, J. J. Operations research:
principles and practice. 2. ed. New York: J. Wiley, 1987.
RUGGIERO, M. A. G.; LOPES, V. L. da R. Cálculo numérico: aspectos
teóricos e computacionais. 2. ed. São Paulo: Makron Books, 1996. 406p.
SCHEINERMAN, E. R. Matemática discreta: uma introdução. Tradução de
Alfredo Alves de Faria. São Paulo: Pioneira Thomson Learning, 2003. 531p.
SHAMBLIN, J. E.; STEVENS JR.; G. T. Pesquisa operacional: uma abordagem
básica. Tradução de Carlos Roberto Vieira de Araújo. São Paulo: Atlas, 1989. 426p.
TAHA, H. A. Pesquisa operacional. Tradução de Arlete S. Marques; Revisão
técnica de Rodrigo A. Scarpel, 8. ed. São Paulo: Person/Prentice Hall, 2008. 359p.
TRIVEDI, K. S. Statistics whith reliability: queuing and computer science
applications. New York: J. Wiley, 2002. 830p.
ULAM, S.; RICHTMEYER, R. D.; NEUMANN, J. V. Statistical methods
in neutron diffusion. Los Alamos: Los Alamos Scientif ic Laboratory Report
LAMS-55A, 1947.
WICHMANN, B. A.; HILL, I. D. An eff icient and portable pseudo-random
number generator, Applied Statistics, Royal Statistical Society, 1982. 3p.
YOSHIDA, L. K. Programação linear: métodos quantitativos. São Paulo:
Atual, 1987. 168p.
– 311 –
Os textos conferem com os originais, sob responsabilidade dos autores.
Rua Colônia, qd. 240-C, lt. 26 a 29, Chácara C2, Jardim Novo Mundo
CEP. 74.713-200, Goiânia, Goiás, Brasil.
Secretaria e Fax (62) 3946-1814 – Livraria (62) 3946-1080