Você está na página 1de 14

Matemática Computacional

1. Eliminação de Gauss

A eliminação de Gauss é um método utilizado para resolver sistemas lineares


de equações. O processo envolve a transformação do sistema original num
sistema equivalente, por meio de operações elementares de linha, de forma a
simplificar a solução. Os principais passos da eliminação de Gauss são: a
criação de uma matriz aumentada, a aplicação de operações elementares de
linha para transformar em zeros os elementos abaixo da diagonal principal e a
substituição para obter as soluções do sistema. Este método é amplamente
utilizado devido à sua eficácia na resolução de sistemas lineares de qualquer
tamanho, porém pode apresentar problemas quando as operações
elementares resultam na divisão por zero ou quando a matriz do sistema é mal
condicionada.

2. Métodos iterativos

Os métodos iterativos são técnicas utilizadas na matemática computacional


para encontrar soluções aproximadas de problemas complexos. Estes
métodos envolvem a iteração de um processo em que os cálculos são
repetidos várias vezes, refinando gradualmente a solução até alcançar uma
precisão desejada.
Conceito de iteração: Um método iterativo baseia-se na ideia de repetir um
processo várias vezes, ajustando iterativamente a solução para se aproximar
cada vez mais da resposta correta.
Convergência: A convergência é um critério importante para avaliar a eficácia
de um método iterativo. Um método é considerado convergente se a
sequência de soluções obtidas se aproximar da solução correta à medida que
o número de iterações aumenta.
Critérios: Para controlar o processo iterativo, é necessário definir critérios.
Estes critérios determinam quando parar as iterações com base numa
condição pré-definida, como um número máximo de iterações, uma tolerância
de erro ou uma diferença aceitável entre as soluções consecutivas.

Exemplos de métodos iterativos:


- Método da Bisseção: Utilizado para encontrar raízes de uma função
num intervalo. Divide iterativamente o intervalo pela metade até que a
solução seja encontrada com a precisão desejada.
- Método de Newton-Raphson: Usado para encontrar raízes de uma
função. Aproxima a solução através de uma sequência de tangentes à
curva da função, convergindo rapidamente para a raiz.
- Método de Gauss-Seidel: Aplicado para resolver sistemas de
equações lineares. Atualiza iterativamente os valores das incógnitas
com base nas equações, até que a solução seja encontrada.
- Método de Jacobi: Similar ao método de Gauss-Seidel, porém atualiza
simultaneamente todos os valores das incógnitas em cada iteração.

3. Método da potência

O Método da Potência é um algoritmo iterativo que procura encontrar o maior


valor (em valor absoluto) e o vetor correspondente de uma matriz real ou
complexa.

Iterações sucessivas: O algoritmo começa com um vetor inicial, geralmente


escolhido aleatoriamente, e realiza uma sequência de iterações para atualizar
o vetor. A cada iteração, o vetor é multiplicado pela matriz original, e a
componente de maior magnitude é mantida, enquanto as outras são
descartadas.

Convergência: O vetor obtido a cada iteração tende a aproximar-se do vetor


correspondente ao maior valor da matriz. Se a matriz possuir um único valor
dominante em termos de magnitude, o Método da Potência converge para
esse valor e seu vetor correspondente.

Estimativa do valor dominante: A estimativa do maior valor pode ser obtida


pela razão entre as componentes consecutivas do vetor atualizado a cada
iteração.

Cálculo do vetor: Após obter o maior valor estimado, o vetor correspondente


pode ser normalizado dividindo o vetor atualizado pelo seu elemento de
maior magnitude.

Limitações: O Método da Potência converge apenas para o valor dominante


em termos de magnitude.

O Método da Potência Inversa é uma extensão do Método da Potência que


permite encontrar o menor valor (valor próprio) e o seu vetor correspondente
de uma matriz. É uma variação do Método da Potência, em que, em vez de
encontrar o maior valor e seu vetor correspondente, procura o menor valor e
seu vetor associado.
Para aplicar o Método da Potência Inversa, em vez de operar diretamente na
matriz original, é necessário trabalhar com a matriz inversa. Isto é feito para
"inverter" a relação entre valores e vetores, tornando o menor valor da matriz
original o maior valor da matriz inversa.

Para garantir a convergência do Método da Potência Inversa, é comum


introduzir um fator de deslocamento. Este fator é escolhido de forma que o
autovalor de interesse esteja afastado dos outros autovalores da matriz
original, facilitando a convergência para o menor autovalor.

Assim como no Método da Potência, o Método da Potência Inversa também


realiza iterações sucessivas, atualizando um vetor inicial através de
multiplicação pela matriz inversa e normalização. O algoritmo converge para
o menor valor da matriz original e seu vetor correspondente, desde que o fator
de deslocamento seja escolhido apropriadamente e a matriz seja
diagonalizável. A estimativa do menor valor pode ser obtida pela razão entre
as componentes consecutivas do vetor atualizado a cada iteração. Após obter
o menor valor estimado, o vetor correspondente pode ser normalizado
dividindo o vetor atualizado pelo seu elemento de maior magnitude.

4. Espaços invariantes

Um espaço invariante é um subespaço vetorial de um espaço maior que


permanece inalterado por uma transformação ou operador específico. Isto
significa que os vetores dentro desse subespaço permanecem dentro do
subespaço mesmo após a aplicação da transformação.

Espaço invariante em relação a uma matriz: Em álgebra linear, um espaço


vetorial é considerado invariante em relação a uma matriz se os vetores desse
espaço, quando multiplicados pela matriz, permanecem no mesmo espaço
vetorial. Esta propriedade é expressa pela equação: A * x = λ * x, onde A é a
matriz, x é o vetor, e λ é um escalar (valor) associado ao vetor.

Espaço invariante em relação a uma transformação: Em sistemas dinâmicos,


um espaço é considerado invariante em relação a uma transformação se os
pontos nesse espaço permanecem no espaço após a aplicação da
transformação. Por exemplo, num sistema de equações diferenciais, um
espaço invariante pode representar uma região do espaço de estado onde as
soluções permanecem confinadas.

Espaço invariante trivial: Todo espaço vetorial tem dois espaços invariantes
triviais: o próprio espaço vetorial e o espaço nulo (que contém apenas o vetor
nulo). Esses espaços são invariáveis em relação a qualquer transformação ou
matriz.
Decomposição de Jordan: A decomposição de Jordan é uma ferramenta da
álgebra linear que permite decompor uma matriz em blocos de Jordan
correspondentes a seus espaços invariantes. Essa decomposição fornece
informações valiosas sobre os valores e os espaços invariantes associados a
uma matriz.

5. Método da bissecção

O Método da Bisseção é um algoritmo clássico utilizado para encontrar uma


raiz de uma função num intervalo específico. O método requer um intervalo
inicial [a, b], no qual se suspeita que a raiz da função esteja contida. A função
deve ser contínua no intervalo e ter sinais opostos nos extremos, ou seja, f(a) *
f(b) < 0.

O método baseia-se no princípio do valor intermediário, que afirma que se


uma função contínua tem valores de sinais opostos nos extremos de um
intervalo, então existe pelo menos um ponto dentro do intervalo onde a
função se anula (ou seja, possui uma raiz).

O intervalo [a, b] é dividido ao meio, obtendo o ponto médio c = (a + b) / 2.


Calcula-se o valor da função nesse ponto, f(c).

Com base no valor de f(c), o intervalo que contém a raiz é selecionado. Se f(c)
é igual a zero, c é a raiz. Caso contrário, se f(a) * f(c) < 0, a raiz está no intervalo
[a, c]; caso f(b) * f(c) < 0, a raiz está no intervalo [c, b].

O processo de divisão do intervalo e seleção do intervalo é repetido


iterativamente até que a raiz seja encontrada com a precisão desejada. Isto é
feito atualizando os valores de a e b de acordo com o intervalo escolhido.

O critério geralmente é baseado numa tolerância de erro pré-definida ou no


número máximo de iterações permitidas. O algoritmo é encerrado quando a
raiz é encontrada dentro da precisão desejada ou quando o número máximo
de iterações é atingido.

O Método da Bisseção é garantido para convergir para a raiz, desde que a


função seja contínua no intervalo e tenha sinais opostos nos extremos iniciais.

O Método da Bisseção tem uma taxa de convergência linear, o que significa


que a quantidade de dígitos corretos na raiz aproximada dobra a cada
iteração.
6. Método da secante

O Método da Secante não requer um intervalo inicial que contenha a raiz. Em


vez disso, ele utiliza uma aproximação inicial e duas iterações consecutivas
para aproximar a raiz da função.

Passos envolvidos no Método da Secante:

1. Escolher duas aproximações iniciais para a raiz, geralmente denotadas


como x0 e x1.
2. Calcular o valor da função em cada uma das aproximações iniciais: f(x0) e
f(x1).
3. Calcular a inclinação da reta secante que passa pelos pontos (x0, f(x0)) e (x1,
f(x1)). A fórmula para a inclinação é: m = (f(x1) - f(x0)) / (x1 - x0).
4. Encontrar o ponto em que a reta secante cruza o eixo x, ou seja, onde f(x) =
0. Pode ser calculado usando a fórmula da reta: x2 = x1 - f(x1) * (x1 - x0) / (f(x1)
- f(x0)).
5. Verificar a condição. Se a aproximação encontrada, x2, satisfaz um critério
de precisão pré-definido ou se o número máximo de iterações foi atingido, o
algoritmo é encerrado e x2 é considerado uma aproximação da raiz.
6. Caso contrário, atualizar as aproximações iniciais: x0 = x1 e x1 = x2.
7. Repetir os passos 2 a 6 até atingir a condição de parada.

O Método da Secante é iterativo e pode fornecer uma aproximação cada vez


mais precisa da raiz da função. É importante notar que a convergência do
método nem sempre é garantida, e a escolha adequada das aproximações
iniciais é crucial para obter resultados precisos.

7. Método do gradiente

O Método do Gradiente é um algoritmo de otimização utilizado para encontrar


o mínimo de uma função multivariável.

Aqui está um resumo dos passos envolvidos no Método do Gradiente:

1. Definir a função objetivo que deseja minimizar. Esta função geralmente é


denotada como f(x) e depende de um vetor de variáveis x = [x1, x2, ..., xn].
2. Escolher um ponto inicial x0 como aproximação inicial da solução.
3. Calcular o gradiente da função objetivo no ponto atual xk. O gradiente
representa a direção de maior crescimento da função. O gradiente da função
objetivo é geralmente denotado como ∇f(xk) e é um vetor que contém as
derivadas parciais de f em relação a cada variável xi.
4. Atualizar o ponto atual xk usando a fórmula: xk+1 = xk - α * ∇f(xk).
5. Verificar a condição. Isto pode ser baseado em critérios como o número
máximo de iterações, uma tolerância de erro pré-definida ou uma mudança
mínima na função objetivo entre as iterações.
6. Se a condição não for atendida, retornar ao passo 3 usando o novo ponto
xk+1 e continuar o processo iterativo até atingir a condição.

O Método do Gradiente é iterativo e continua a atualizar o ponto atual na


direção oposta ao gradiente até alcançar o mínimo da função objetivo.

O Método do Gradiente com Procura Linear é uma técnica de otimização


que combina o Método do Gradiente com a Procura Linear para encontrar o
mínimo (ou máximo) de uma função.

Passos envolvidos no Método do Gradiente com Procura Linear:

1. Escolher um ponto inicial x0.


2. Calcular o gradiente da função objetivo ∇f(xk) no ponto atual xk.
3. Determinar a direção de busca dk como o negativo do gradiente: dk = -
∇f(xk).
4. Executar uma procura linear ao longo da direção de busca para determinar
o tamanho do passo adequado αk. Isto envolve encontrar um valor αk que
minimize a função objetivo ao longo da direção dk. Métodos comuns de
procura linear incluem a busca em linha (line search) ou métodos como o
Método de Armijo ou o Método de Wolfe.
5. Atualizar o ponto atual usando a fórmula: xk+1 = xk + αk * dk.
6. Verificar a condição. Isto pode ser baseado em critérios como a norma do
gradiente, uma tolerância de erro pré-definida ou uma mudança mínima na
função objetivo.
7. Se a condição não for atendida, retornar ao passo 2 e repetir o processo até
atingir a condição.

O Método do Gradiente com Procura Linear utiliza o gradiente da função


objetivo para determinar a direção de busca e a procura linear para determinar
o tamanho do passo em cada iteração. Isto permite que o método faça ajustes
eficientes ao longo da superfície da função, aproximando-se do mínimo (ou
máximo) desejado.

O Método dos Gradientes Conjugados é um algoritmo iterativo utilizado


para resolver sistemas lineares simétricos e positivos-definidos.

Passos envolvidos no Método dos Gradientes Conjugados:


1. Escrever o sistema linear na forma matricial Ax = b, onde A é uma matriz
simétrica e positiva-definida, x é o vetor das incógnitas e b é o vetor dos termos
independentes.
2. Inicializar um vetor de solução x0 e um vetor de resíduos r0 = b - Ax0.
3. Inicializar um vetor de direção de busca d0 = r0.
4. Repetir os seguintes passos até atingir um critério desejado (por exemplo,
um limite de tolerância de erro ou número máximo de iterações):
a. Calcule o valor do passo de atualização αk utilizando a fórmula αk = (rk^T
* rk) / (dk^T * A * dk), onde rk é o vetor de resíduos na iteração k e dk é o vetor
de direção de busca na iteração k.
b. Atualize o vetor de solução xk+1 = xk + αk * dk.
c. Calcule o novo vetor de resíduos rk+1 = rk - αk * A * dk.
d. Calcule o valor do fator de atualização βk utilizando a fórmula βk = (rk+1^T
* rk+1) / (rk^T * rk), onde rk+1 é o vetor de resíduos na iteração k+1.
e. Atualize o vetor de direção de busca dk+1 = rk+1 + βk * dk.
5. Após atingir o critério, o vetor de solução x final obtido é a solução
aproximada do sistema linear.

O Método dos Gradientes Conjugados aproveita a propriedade dos vetores


de direção de busca serem conjugados em relação à matriz A para melhorar a
convergência. Isto significa que as direções de busca são escolhidas de forma
a não apontarem na mesma direção dos passos anteriores.

8. Métodos com projeção

1. Método do Gradiente Projetado:


O Método do Gradiente Projetado é uma extensão do Método do Gradiente
que leva em consideração restrições lineares num problema de otimização. É
utilizado quando há a necessidade de encontrar a solução ótima sujeita a
certas restrições.

Passos envolvidos no Método do Gradiente Projetado:


1. Inicializar um ponto inicial x0.
2. Calcular o gradiente da função objetivo ∇f(xk) no ponto atual xk.
3. Projetar o vetor de direção de busca dk de acordo com as restrições do
problema.
4. Determinar o tamanho do passo αk usando um método de linha, como a
busca em linha.
5. Atualizar o ponto atual usando a fórmula: xk+1 = xk + αk * dk.
6. Verificar a condição. Isto pode ser baseado em critérios como a norma do
gradiente ou uma tolerância de erro pré-definida.
7. Se a condição não for atendida, retornar ao passo 2 e repetir o processo
até atingir a condição.

A projeção no passo 3 é realizada para garantir que a solução esteja dentro


do conjunto viável de restrições. Isto pode ser feito por meio de operações de
projeção específicas para cada tipo de restrição.

2. Método de Projeção Alternada:


O Método de Projeção Alternada é usado para resolver problemas de
otimização com restrições em que a função objetivo e as restrições podem ser
decompostas em subproblemas independentes. Ele é amplamente utilizado
em problemas de otimização convexa e em problemas com estrutura de
bloco.

Passos envolvidos no Método de Projeção Alternada:


1. Inicializar um ponto inicial x0.
2. Repetir os seguintes passos até atingir um critério:
a. Para cada subproblema independente, projetar o ponto atual no
conjunto viável das restrições correspondentes.
b. Atualizar o ponto atual com as soluções projetadas.
3. Verificar a condição. Isto pode ser baseado em critérios como a norma das
diferenças entre iterações consecutivas ou uma tolerância de erro pré-
definida.

O Método de Projeção Alternada aproveita a decomposição do problema


em subproblemas independentes, o que permite resolver cada subproblema
de forma eficiente.

9. Método do simplex

O Método Simplex é um algoritmo utilizado para resolver problemas de


programação linear, que envolvem a maximização ou minimização de uma
função linear sujeita a um conjunto de restrições lineares.

Passos envolvidos no Método Simplex:

1. Formular o problema de programação linear na forma padrão. Isto envolve


escrever a função objetivo e as restrições lineares em termos de igualdades e
desigualdades.
2. Converter o problema para a forma de tabela Simplex. Isso envolve criar
uma tabela inicial com as variáveis de decisão, as variáveis de
folga/sobra/artificiais e os coeficientes das restrições.

3. Determinar a solução básica inicial. Isso envolve selecionar as variáveis


básicas e atribuir valores às variáveis não básicas igual a zero.

4. Verificar se a solução básica inicial é ótima. Isto é feito examinando os


valores dos coeficientes na linha da função objetivo da tabela Simplex. Se
todos os coeficientes forem não negativos (ou não positivos, dependendo do
problema de maximização ou minimização), a solução é ótima e o algoritmo é
encerrado.

5. Se a solução não for ótima, determinar a variável que entrará na base


(variável de entrada). Isto é feito selecionando a coluna com o coeficiente mais
negativo (ou mais positivo, dependendo do problema de maximização ou
minimização) na linha da função objetivo.

6. Determinar a variável que sairá da base (variável de saída). Isto é feito


selecionando a linha onde a razão entre o valor da variável básica
correspondente e o coeficiente da variável de entrada seja a menor possível
(respeitando as restrições de não-negatividade).

7. Atualizar a tabela Simplex. Isto envolve realizar operações de pivô para


trocar a variável de entrada pela variável de saída, atualizando os valores na
tabela.

8. Voltar ao passo 4 e repetir o processo até que uma solução ótima seja
encontrada.

9. Após encontrar uma solução ótima, determinar os valores das variáveis de


decisão e interpretar os resultados do problema.

10. Método do ponto fixo

O Método do Ponto Fixo, também conhecido como Método das Iterações de


Ponto Fixo, é um algoritmo utilizado para encontrar soluções aproximadas de
equações não lineares. Baseia-se no conceito de ponto fixo, que é um valor x
tal que f(x) = x.

- Dada uma equação não linear na forma f(x) = 0, reescreva-a na forma x = g(x).
A função g(x) é chamada de função iterativa ou função de iteração.
- Escolha um valor inicial x0.
- Aplique a função de iteração repetidamente para obter uma sequência de
valores: x1 = g(x0), x2 = g(x1), x3 = g(x2), e assim por diante.
- Verifique a condição. Isto pode ser baseado em critérios como o número
máximo de iterações, uma tolerância de erro pré-definida ou uma mudança
mínima entre os valores de x.
- Se a condição não for atendida, continue o processo iterativo até atingir a
condição de parada.
- O valor final obtido, xk, é considerado uma solução aproximada da equação
f(x) = 0.

O sucesso do Método do Ponto Fixo depende da escolha adequada da função


de iteração g(x). Algumas propriedades que geralmente são desejáveis para
g(x) incluem: convergência (a sequência gerada por g(x) deve convergir para
o ponto fixo x); a função de iteração deve contrair o intervalo em torno do
ponto fixo, garantindo que a sequência convirja rapidamente.

Uma maneira comum de verificar a convergência é analisar a derivada da


função de iteração. Se |g'(x)| < 1 para todos os x no intervalo relevante, a
convergência geralmente é garantida.

11. Matrizes com diagonal dominante

Matrizes com diagonal dominante são matrizes em que o valor absoluto do


elemento diagonal de cada linha é maior ou igual à soma dos valores
absolutos dos demais elementos da mesma linha. Noutras palavras, numa
matriz diagonal dominante, o valor absoluto do elemento diagonal é maior ou
igual à soma dos valores absolutos dos elementos não diagonais na mesma
linha.

Esta propriedade é importante em vários contextos. Aqui estão algumas delas:

1. Solução de sistemas lineares: Matrizes diagonal dominante são


especialmente relevantes na resolução de sistemas lineares. Devido à sua
estrutura, métodos como o Método de Gauss-Seidel ou o Método de Jacobi
têm maior probabilidade de convergir para a solução do sistema quando a
matriz é diagonal dominante. Isto pode facilitar a obtenção de soluções
rápidas e estáveis.

2. Estabilidade numérica: A diagonal dominante de uma matriz também está


relacionada à estabilidade numérica de algoritmos que envolvem essa matriz.
Algoritmos iterativos, como os mencionados acima, podem apresentar uma
convergência mais estável e menos sensibilidade a erros de arredondamento
quando a matriz é diagonal dominante.

3. Propriedades teóricas: Matrizes diagonal dominante possuem várias


propriedades teóricas. Por exemplo, são não singulares (possuem inversa),
possuem valores estritamente reais e sua norma é estritamente maior que
zero.

É importante observar que nem todo sistema linear ou matriz precisa ser
diagonal dominante para ser solucionável ou estável. Existem métodos e
técnicas adicionais disponíveis para tratar de casos em que essa propriedade
não é atendida.

12. Métodos iterativos para sistemas de equações lineares

Existem vários métodos iterativos para resolver sistemas de equações lineares.


Métodos iterativos mais comuns:

1. Método de Jacobi: Neste método, o sistema de equações é reescrito na


forma Ax = b, onde A é a matriz dos coeficientes, x é o vetor das incógnitas e
b é o vetor dos termos independentes. O método de Jacobi atualiza os valores
de x iterativamente usando a fórmula:
x(k+1)i = (bi - Σ(aij * x(k)j)) / aii
onde k é o número da iteração, i é o índice da linha, j é o índice da coluna e
aii é o elemento diagonal da matriz A. O processo é repetido até que a solução
convirja para um determinado critério de parada.

2. Método de Gauss-Seidel: Similar ao método de Jacobi, o método de Gauss-


Seidel também atualiza os valores de x iterativamente. No entanto, ele utiliza
os valores mais recentes de x conforme são calculados durante a iteração atual.
A fórmula de atualização para o método de Gauss-Seidel é:
x(k+1)i = (bi - Σ(aij * x(k+1)j) - Σ(aij * x(k)j)) / aii
O método de Gauss-Seidel pode convergir mais rapidamente do que o
método de Jacobi em alguns casos.

3. Método de SOR (Successive Over-Relaxation): O método de SOR é uma


variação do método de Gauss-Seidel. Ele introduz um parâmetro de relaxação
ω, que controla o peso relativo dado à atualização dos valores de x em cada
iteração. A fórmula de atualização do método de SOR é:
x(k+1)i = (1 - ω) * x(k)i + (ω / aii) * (bi - Σ(aij * x(k+1)j) - Σ(aij * x(k)j))
O parâmetro de relaxação ω pode ser ajustado para acelerar a convergência.
4. Método do Gradiente Conjugado: O método do Gradiente Conjugado é
usado para sistemas de equações lineares simétricas e positivas definidas. O
método do Gradiente Conjugado encontra a solução aproximada através de
uma série de direções de busca conjugadas. Cada iteração envolve atualizar a
solução e a direção de busca com base em cálculos envolvendo produtos
matriciais e vetoriais.

13. Método BFGS

O Método BFGS (Broyden-Fletcher-Goldfarb-Shanno) é um algoritmo de


otimização sem restrições que pertence à classe dos métodos de quase-
Newton. Ele é usado para encontrar o mínimo de uma função objetivo em
problemas de otimização não lineares.

Passos envolvidos no Método BFGS:

1. Escolha um ponto inicial x0.


2. Calcule o valor da função objetivo e o seu gradiente no ponto atual: f(xk) e
∇f(xk), respectivamente.
3. Verifique a condição. Isto pode ser baseado em critérios como a norma do
gradiente, uma tolerância de erro pré-definida ou uma mudança mínima na
função objetivo.
4. Se a condição for atendida, o algoritmo é encerrado e xk é considerado uma
aproximação do mínimo.
5. Caso contrário, estime a matriz Hessiana inversa aproximada Hk, que é uma
aproximação da verdadeira matriz Hessiana inversa da função objetivo.
6. Calcule a direção de busca pk como a solução do sistema linear Hk * pk = -
∇f(xk).
7. Execute uma linha de busca para determinar o tamanho do passo adequado
ao longo da direção de busca. Isso envolve encontrar um valor α que minimize
a função objetivo ao longo da direção pk.
8. Atualize o ponto atual usando a fórmula: xk+1 = xk + α * pk.
9. Atualize a matriz Hessiana inversa aproximada Hk+1 usando a fórmula do
Método BFGS.
10. Volte ao passo 2 e repita o processo até atingir a condição.

O Método BFGS utiliza a informação fornecida pelo gradiente da função


objetivo e a aproximação iterativa da matriz Hessiana para atualizar
iterativamente o ponto atual em direção ao mínimo. A matriz Hessiana inversa
aproximada Hk é atualizada a cada iteração para melhorar a precisão da
aproximação.
14. Método da relaxação

O Método da Relaxação é um algoritmo utilizado para resolver sistemas de


equações lineares, especialmente quando são grandes e esparsos.

Passos envolvidos no Método da Relaxação:

1. Escrever o sistema de equações lineares na forma matricial Ax = b, onde A


é a matriz dos coeficientes, x é o vetor das incógnitas e b é o vetor dos termos
independentes.
2. Inicializar um vetor x0 como aproximação inicial das soluções.
3. Escolher um fator de relaxação ω, que determina o quão rápido o método
converge. Um valor comum é 1 < ω < 2.
4. Para cada equação do sistema, calcular uma nova aproximação da solução
usando a fórmula: xi_new = (1 - ω) * xi + (ω / Aii) * (bi - Σ(Aij * xj)), onde xi_new
é a nova aproximação da variável xi, Aii é o elemento diagonal da matriz A, bi
é o elemento correspondente do vetor b, Aij são os elementos da matriz A e xj
são as aproximações atuais das variáveis diferentes de xi.
5. Repita o passo 4 para cada variável do sistema, atualizando as aproximações
até que a convergência seja alcançada ou até um critério ser satisfeito. O
critério pode ser baseado na norma do vetor de resíduos ou num número
máximo de iterações.
6. O vetor x final obtido é considerado uma solução aproximada do sistema
de equações.

O Método da Relaxação é iterativo e atualiza as aproximações das variáveis


uma a uma, utilizando as aproximações atualizadas das outras variáveis. O fator
de relaxação ω permite acelerar ou desacelerar a convergência do método,
mas um valor inadequado pode levar à divergência.

15. Decomposição LU

A decomposição LU é uma técnica de fatorização de matrizes que envolve a


decomposição de uma matriz em dois fatores: uma matriz triangular inferior
(L) e uma matriz triangular superior (U). Essa decomposição permite resolver
sistemas lineares com maior eficiência, uma vez que a matriz original é
transformada numa forma mais simples. A decomposição LU é útil para
resolver múltiplos sistemas lineares com a mesma matriz de coeficientes,
calcular o determinante de uma matriz e inverter uma matriz. Além disso, a
decomposição LU pode ser utilizada para resolver sistemas lineares com maior
eficiência computacional em comparação com a eliminação de Gauss.
16. Método de Newton-Raphson

O método de Newton-Raphson é um algoritmo iterativo utilizado para


encontrar aproximações de raízes de uma função não linear. O método baseia-
se na ideia de aproximar a função por uma reta tangente à curva da função e
determinar o ponto em que essa reta cruza o eixo x. A partir desse ponto, a
reta tangente é recalculada e o processo é repetido até que uma raiz seja
encontrada com a precisão desejada. O método de Newton-Raphson é
bastante eficiente para encontrar raízes, especialmente quando a
aproximação inicial está próxima da raiz desejada. No entanto, é importante
observar que o método pode não convergir se a aproximação inicial estiver
distante da raiz ou se a função possuir pontos críticos, como pontos de inflexão
ou mínimos locais.

Você também pode gostar