Você está na página 1de 3

Tutorial de Avaliação da Qualidade do Modelo

1- Ajuste do modelo
No Statistica, fazer o ajuste do modelo, de modo que todos os parâmetros
sejam significativos (Sempre ir retirando os parâmetros que
apresentarem p > 0,05).
Obs: Na opção NonLinear Estimation, é possível ajustar o cálculo da
função objetivo:
- mínimos quadrados [Fobj = (pred. – obs.)²] ou
- mínimos quadrados ponderados [Fobj = (pred. – obs.)²/variância]

Tendo o modelo ajustado, podemos ter os seguintes dados:


- Função Objetivo (Fobj) => chamada de “Final Loss” no Statistica
- Grau de liberdade do modelo (GL mod) => GLmod = NE – NP, em
que NE é o número de experimentos e NP é o número de parâmetros
estimados no modelo
- Grau de liberdade experimental (GLexp) => GLexp = NE – 1
- Variância experimental (σ²exp) => obtido pela variância dos
pontos centrais do planejamento experimental (Excel calcula isso!)
- Variância do modelo (σ²mod) => σ²mod = Fobj/(NE-NP)

Esses dados serão importantes para as próximas etapas!

2- Avaliação da qualidade do ajuste obtido

 Teste de Χ² - comparar Função Objetivo com o intervalor do Chi².


No Statistica, ir na aba Statistics, clicar em Probability Calculator e
depois em Distributions.
Ir na opção Chi-Square:
Entrar com os dados de nível de confiança (p) e grau de liberdade
do modelo (df = GLmod). No caso de 95 % de confiança:
χ 21 => use p = 0,025
χ 22 => use p = 0,975
2 2
Avaliar se: χ 1 < F obj < χ 2
Se sim, o modelo ajusta bem seus dados. Se não... (talvez avaliar usar
mínimos quadrados ponderados)
 Teste de F de Fischer - comparar as variâncias com o intervalor do F.
No Statistica, ir na aba Statistics, clicar em Probability Calculator e
depois em Distributions.
Ir na opção F-Fisher:
Entrar com os dados de nível de confiança (p) e as variâncias (df1 e
df2)
Neste teste, ao invés de trabalhar com a Função objetivo, temos
que trabalhar com o quociente das variâncias. Logo, podemos ter
duas opções:
σ²exp/ σ²mod => Logo, df1 = σ²exp e df2 = σ²mod
ou
σ²mod/ σ²exp => Logo, df1 = σ²mod e df2 = σ²exp

(Aparentemente, não há um jeito certo de definir esse quociente. Use o


que ficar melhor!)

No caso de 95 % de confiança:
F1 => use p = 0,025
F2 => use p = 0,975

Avaliar se: F1 < (σ²1/ σ²2) < F2


(Se sim, o modelo é capaz de explicar os erros experimentais)

 Coeficiente de correlação - Obter o gráfico de Predito vs Observado.

No Statistica, na “janela principal” do seu modelo, ir em Residual Plots, e


clicar na opção Observed vs. Predict values. Nesse momento, o Statistica vai
gerar o gráfico para você.

O ideal é que os dados sejam lineares entre si, logo R² > 0,9.

(Também é possível gerar uma tabela com esses dados, basta clicar em
“Observed, predicted, residual vals”.)

3- Avaliação da qualidade dos parâmetros estimados

Avaliar a Matriz de Correlação Paramétrica!

No Statistica, na “janela principal” do seu modelo, ir em Advanced, e


clicar na opção “Correls. of Param”.
O programa gera uma tabela com a matriz de correlação paramétrica.

Idealmente, quanto mais próximo de zero, mais eficiente foi o processo


de estimação. Se ultrapassar o valor de 0,9, está indicando que os
parâmetros apresentam alta correlação.

4- Obtenção dos erros dos parâmetros

No Statistica, na tabela que mostra os valores estimados para os


parâmetros, utilizar os valores da linha Std. Err. (Standard Error) como erro
de cada parâmetro.

Exemplo:

Nesse caso, o modelo deve ser apresentado da seguinte forma:

Modelo = (a0 ± erro_a0) + (a1 ± erro_a1)*x + (b12 ± erro_b12)*x*y + (b23 ±


erro_b23)*y*z

Modelo = (6,72073 ± 0,35880) + (0,035292 ± 0,005792)*x + (-0,00027 ±


0,00007)*x*y + (-0,00022 ± 0,00006)*y*z

Você também pode gostar