Você está na página 1de 102

Ajustamento de Observações

Brasília-DF.
Elaboração

Luís Antônio dos Santos

Produção

Equipe Técnica de Avaliação, Revisão Linguística e Editoração


Sumário

APRESENTAÇÃO.................................................................................................................................. 4

ORGANIZAÇÃO DO CADERNO DE ESTUDOS E PESQUISA..................................................................... 5

INTRODUÇÃO.................................................................................................................................... 7

UNIDADE I
INTRODUÇÃO E PROCEDIMENTOS.......................................................................................................... 9

CAPÍTULO 1
INTRODUÇÃO AO SISTEMA ESTATÍSTICO R.................................................................................. 9

CAPÍTULO 2
INTRODUÇÃO AO AJUSTAMENTO DE OBSERVAÇÕES................................................................ 33

UNIDADE II
PRÁTICAS............................................................................................................................................. 43

CAPÍTULO 1
PRINCÍPIOS DE AJUSTAMENTO DE OBSERVAÇÕES.................................................................... 43

CAPÍTULO 2
AJUSTAMENTO DE REDES GEODÉSICAS.................................................................................... 80

UNIDADE III
PRÁTICAS FINAIS................................................................................................................................... 96

CAPÍTULO 1
PRÁTICAS FINAIS...................................................................................................................... 96

REFERÊNCIAS................................................................................................................................. 101
Apresentação

Caro aluno

A proposta editorial deste Caderno de Estudos e Pesquisa reúne elementos que se


entendem necessários para o desenvolvimento do estudo com segurança e qualidade.
Caracteriza-se pela atualidade, dinâmica e pertinência de seu conteúdo, bem como pela
interatividade e modernidade de sua estrutura formal, adequadas à metodologia da
Educação a Distância – EaD.

Pretende-se, com este material, levá-lo à reflexão e à compreensão da pluralidade


dos conhecimentos a serem oferecidos, possibilitando-lhe ampliar conceitos
específicos da área e atuar de forma competente e conscienciosa, como convém
ao profissional que busca a formação continuada para vencer os desafios que a
evolução científico-tecnológica impõe ao mundo contemporâneo.

Elaborou-se a presente publicação com a intenção de torná-la subsídio valioso, de modo


a facilitar sua caminhada na trajetória a ser percorrida tanto na vida pessoal quanto na
profissional. Utilize-a como instrumento para seu sucesso na carreira.

Conselho Editorial

4
Organização do Caderno
de Estudos e Pesquisa

Para facilitar seu estudo, os conteúdos são organizados em unidades, subdivididas em


capítulos, de forma didática, objetiva e coerente. Eles serão abordados por meio de textos
básicos, com questões para reflexão, entre outros recursos editoriais que visam a tornar
sua leitura mais agradável. Ao final, serão indicadas, também, fontes de consulta, para
aprofundar os estudos com leituras e pesquisas complementares.

A seguir, uma breve descrição dos ícones utilizados na organização dos Cadernos de
Estudos e Pesquisa.

Provocação

Textos que buscam instigar o aluno a refletir sobre determinado assunto antes
mesmo de iniciar sua leitura ou após algum trecho pertinente para o autor
conteudista.

Para refletir

Questões inseridas no decorrer do estudo a fim de que o aluno faça uma pausa e reflita
sobre o conteúdo estudado ou temas que o ajudem em seu raciocínio. É importante
que ele verifique seus conhecimentos, suas experiências e seus sentimentos. As
reflexões são o ponto de partida para a construção de suas conclusões.

Sugestão de estudo complementar

Sugestões de leituras adicionais, filmes e sites para aprofundamento do estudo,


discussões em fóruns ou encontros presenciais quando for o caso.

Praticando

Sugestão de atividades, no decorrer das leituras, com o objetivo didático de fortalecer


o processo de aprendizagem do aluno.

5
Atenção

Chamadas para alertar detalhes/tópicos importantes que contribuam para a


síntese/conclusão do assunto abordado.

Saiba mais

Informações complementares para elucidar a construção das sínteses/conclusões


sobre o assunto abordado.

Sintetizando

Trecho que busca resumir informações relevantes do conteúdo, facilitando o


entendimento pelo aluno sobre trechos mais complexos.

Para (não) finalizar

Texto integrador, ao final do módulo, que motiva o aluno a continuar a aprendizagem


ou estimula ponderações complementares sobre o módulo estudado.

6
Introdução
Vamos iniciar nossos estudos em Ajustamento de Observações no contexto do
georreferenciamento de imóveis rurais, utilizando o sistema estatístico R, que aos
poucos todos os alunos ficarão familiarizados.

Além do sistema R, ou em conjunto com o R, também vamos utilizar, quando


necessário, o LibreOffice Calc e, da mesma forma, apresentaremos conceitos básicos de
estatística, antes de avançar para problemas mais específicos na área de ajustamento
de observações.

Alguns problemas de modelagem matemática serão explorados, principalmente para


aprimorar, ou ampliar, a visão do aluno sobre o contexto maior da otimização matemática,
que se relaciona diretamente com os métodos de ajustamento de observações.

Outras definições, como as de álgebra de matrizes, ou operações de cálculo diferencial


e integral, ou mesmo, os próprios problemas estatísticos, não serão analisadas
profundamente. Lembramos apenas da necessidade desses conceitos para o curso de
ajustamento de observações.

Quando copiar as linhas de comando e digitar Ctrl R para rodar e Script escrito
em R, e não acontecer nada pode ser que na revisão, desse material, algumas
linhas de comando passaram a conter espaços desnecessários. É bom prestar
atenção nisso.

Objetivos
»» Desenvolver fundamentos da estatística, aplicada ao georreferenciamento
de imóveis rurais, fazendo uma breve introdução ao sistema estatístico R.

»» Apresentar conceitos de ajustamento de observações, variáveis aleatórias


e distribuição de probabilidade, variância e covariância, propagação do
erro ou das covariâncias.

»» Proporcionar práticas do método dos mínimos quadrados, paramétrico


e condicional, avaliando a qualidade das estimativas e análise dos
resultados.

7
8
INTRODUÇÃO E UNIDADE I
PROCEDIMENTOS

Nessa unidade veremos o conteúdo introdutório a cerca do sistema estatístico R, o qual


se mostra muito importante quando usado de forma integrada com a geotecnologia.
Nesse viés, além dos assuntos introdutórios, estudaremos também alguns ajustamentos
e operações básicas.

CAPÍTULO 1
Introdução ao sistema estatístico R

Objetivo

Vamos usar os dados da seção técnica da revista A Mira – Comparativo entre dados
obtidos pelo nivelamento trigonométrico com ET e dados altimétricos obtidos com GPS
com correção em tempo real (RTK). (A MIRA, Ano XXII, no 163; SANTOS et al., 2014).
E, a partir desses dados, fazer uma pequena introdução ao sistema estatístico R. Então,
na sequência, discutir alguns resultados, fazendo uma revisão estatística, dentro do
contexto do ajustamento de observações.

Nós vamos usar a Introdução ao Ambiente Estatístico R de Paulo Justiniano Ribeiro


Júnior, atualizada em 29 de maio de 2011 e o livro Conhecendo o R, uma visão mais
que Estatística (MELLO et al, 2013).

Passo a passo

1o Passo: criar um arquivo .txt no bloco de notas, chamado Altimetria:

9
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

Figura 1. Altimetria.

Fonte: Autor.

2o Passo: vamos abrir esse arquivo no Sistema Estatístico R usando os comandos:

Figura 2.

Fonte: Autor.

Script R-1 – Copiar para o editor de Script do R e dar o comando Ctrl R.

Obs.: a resposta, ou saída no R Console, não será, na maioria das vezes, documentada.

> variável <- read.table (file.choose(), header=T)

> variável

Ou

> Altimetria <- read.table (file.choose(), header=T)

> Altimetria

10
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

3o Passo: agora vamos separar a tabela em dois vetores:

> ET <- Altimetria [,1]

> ET

> GPS <- Altimetria [,2]

> GPS

4o Passo: depois devemos calcular o vetor v dos erros:

> v <- ET-GPS

>v

5o Passo: segundo a teoria, que pode ser aprofundada, o vetor v dos erros deve seguir
a distribuição normal (Curva de Sino), portanto vamos testar a normalidade dos dados.

Figura 3.

Fonte: Autor.

Obs.: caso os dados não obedeçam à distribuição normal, será necessária uma
transformação matemática. Por exemplo, usando logaritmo ou expansão em série de
Taylor.

> shapiro.test (v)

Obs.: discutir o resultado p-value que deve ser maior que 0,05.

11
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

Quando os dados seguem uma distribuição normal eles se distribuem ao longo


de uma reta, mas para isso existe um tipo de papel gráfico, chamado papel de
probabilidade. O papel de probabilidade lognormal difere apenas no fato de
que a escala na ordenada é logarítmica.

> qqnorm(v)

> qqline(v)

6o Passo: algumas operações com vetores:

Obs.: os dados devem, sempre quando necessário, serem armazenados em uma variável.

> length(v) #(Número de observações de v)

> max(v) # (Valor máximo de v)

> min(v) #(Valor mínimo de v)

> sum(v) #(Soma de v)

> v^2 #(Quadrado de v)

> sqrt(v^2) #(Raiz quadrada de v^2)

7o Passo: calculando média do vetor v:

1o modo:

> mv <- sum(v)/11

> mv

2o modo:

> mv <- mean(v)

> mv

8o Passo: calculando o desvio padrão do vetor v:

1o modo:

Resolver, ou calcular, o desvio padrão do vetor v, usando a fórmula do desvio padrão da


NBR13133, produzindo o Script escrito em R.

12
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

2o modo:

> sv <- sd(v)

> sv

Obs.: uma pausa para o cálculo do Erro.

A variância dos dados é o desvio padrão ao quadrado. Entretanto, segundo Weeks


(2012), encontrar a diferença entre medidas constitui uma operação comum. Uma
medida, ou um sinal, como os do GPS, por exemplo, pode ser medido com certo grau de
erro, um erro que deve ser considerado aceitável. A quantidade, ou qualidade desse erro
entre o sinal original (enviado pelo satélite) e a versão reconstruída, ou reconstituída
(gerada no receptor), deve ser encontrada somando-se os valores das diferenças entre
as medições.

Vamos considerar duas medidas, ou dois sinais, x e y:

> x<-c(1,2,5,0,-2)

>x

> y<-c(-1,4,0,5,-2)

>y

> v<-sum(x-y)

>v

Percebe-se claramente que x e y não são iguais, mas como as diferenças positivas e
as diferenças negativas cancelam uma a outra, esse método simples faz com que eles
pareçam ser iguais.

O erro entre sinais, x e y, pode ser encontrado e melhorado com o comando a seguir:
(veja a função de valor absoluto abs)

> v<-sum(abs(x-y))

>v

Outra forma, mais sofisticada, de se medir o erro é conhecida com RMSE (root mean
square error ou raiz quadrada do erro médio quadrático – bem parecido com o desvio
padrão), que é calculado segundo o código a seguir. Primeiramente, diff encontra a
diferença entre os sinais x e y. Em seguida, encontramos sigma_squared (sigma ao

13
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

quadrado), também conhecida como variância; calcula-se, então, elevando ao quadrado


cada elemento em diff e somando-se, finalmente, os resultados. Por fim, podemos
computar o RMSE:

> diff<- x-y

> diff

> sigma_squared<- sum(diff*diff)

> sigma_squared

> RMSE<-sqrt(sigma_squared/length(x))

> RMSE

E finalmente, se dividirmos o RMSE pelos valores max(v) – min(v), do conjunto dos


erros apresentados, teremos o NRMSD – Normalized root mean square deviation ou
desvio quadrático médio normalizado, que é uma das inúmeras formas de padronizar os
dados, principalmente em geoprocessamento, quando trabalhamos com várias fontes
ou escalas de informação. Então, normalizar o RMSE facilita a comparação entre os
conjuntos de dados, ou modelos com diferentes escalas. Embora não haja, segundo a
literatura, meios consistentes para a normalização dos dados.

9o Passo: fazer o histograma do vetor v:

> hist(v)

> pnorm(11, mv, sv)

> curve(dnorm(x), -2,2)

Discussão
A conclusão do trabalho, que pode ser lido na íntegra na revista A Mira, segundo a
observação final dos dados, é que os dois métodos possuem resultados bem próximos.
Mas “bem próximo” pode ser uma conclusão vaga, ou não científica, e, portanto, não
pode ser aceita. Precisamos de algum teste estatístico para validar os resultados,
apresentando o p-value.

Diante dos fatos evidenciados nesse trabalho conclui-se que ou uso do


GPS em tempo real pode ser aplicado para a obtenção da altimetria,
pois o mesmo comparado com o trigonométrico, um dos métodos mais

14
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

utilizados atualmente no mercado, possui resultados bem próximo um


do outro. (A MIRA, Ano XXII, no 163; SANTOS et al., 2014).

10o Passo: realizar o teste t do vetor v:

> t.test(v)

Obs.: discutir o resultado p-value que deve ser maior que 0,05.

Prática R-02: pesquisar a fórmula para resolver, ou calcular para o erro v, o teste t de
Student e produzir um Script escrito em R.

Um simples teste t, com a apresentação do resultado do p-value, já seria o suficiente


para uma conclusão, digamos, mais técnica do trabalho. Mas vamos dar um passo à
frente, fazendo uma análise da variância.

Em certas situações, nosso interesse está voltado para o efeito de um fator A


(ex.: comparação entre métodos de levantamento, (ET e GPS), sobre uma variável
quantitativa Y (Medições). Porém, outro fator B (Qualidade do operador), que nem
sempre podemos observar ou controlar, também pode estar presente. E ainda existem
outros fatores C, D, E etc., que não sabemos como se relacionam com nossos dados.
Uma forma clássica de se anular isso, quando estamos fazendo um experimento, é
trabalhar com amostras aleatórias do nosso conjunto de dados.

11o Passo: vamos fazer agora uma análise da variância ANOVA para os dois métodos
de levantamentos (um fator) que foram testados, ou comparados, (ET e GPS):

Análise da variância é a técnica estatística que permite avaliar afirmações sobre as


médias da população, ou amostra. A análise visa, fundamentalmente, verificar se existe
uma diferença significativa entre as médias e se os fatores exercem influência em
alguma variável dependente.

A análise de variância compara médias de diferentes populações para verificar se essas


populações possuem médias iguais ou não. Assim, essa técnica permite que vários
grupos sejam comparados a um só tempo.

Em outras palavras, a análise de variância é utilizada quando se quer decidir se as


diferenças amostrais observadas são reais (causadas por diferenças significativas nas
populações observadas) ou casuais (decorrentes da mera variabilidade amostral).
Portanto, essa análise parte do pressuposto que o acaso só produz pequenos desvios,
sendo as grandes diferenças geradas por causas reais.

15
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

Tabela 1. AA.

N MEDIÇÕES FATOR MÉTODO OPERADOR


1 947,530 1 ET 1
2 956,299 1 ET 1
3 954,269 1 ET 2
4 949,751 1 ET 3
5 953,566 1 ET 1
6 952,864 1 ET 2
7 952,514 1 ET 2
8 950,919 1 ET 3
9 939,275 1 ET 3
10 941,756 1 ET 1
11 942,866 1 ET 2
12 947,523 2 GPS 1
13 956,304 2 GPS 2
14 954,274 2 GPS 3
15 949,742 2 GPS 1
16 953,570 2 GPS 2
17 952,874 2 GPS 3
18 952,509 2 GPS 3
19 950,923 2 GPS 3
20 939,279 2 GPS 1
21 941,747 2 GPS 2
22 942,878 2 GPS 1
Fonte: Autor.

Script R-2 – Copiar para o editor de Script do R e dar o comando Ctrl R.

Obs.: Tabela 01 AA = Altimetria Anova

Abrir arquivo:

> AA <- read.table (file.choose(), header=T)

> AA

Separar vetores:

> MD <- AA[,1]

> MD

> FT <- AA[,2]

> FT

16
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

Transformar o vetor FT em fator de nível 2:

FT<- factor(FT)

Criar o modelo ANOVA:

>MODELO1 = aov(MD ~ FT)

Comando summary (MODELO1) para ver os resultados:

> summary (MODELO1)

Obs.: no resultado, tempos duas linhas. A linha para os efeitos da variável MD (variação
entre os grupos) e a outra para os resíduos (variação dentro dos grupos).

11o Passo: vamos repetir a análise da variância ANOVA para os dois métodos de
levantamentos ET e GPS usando, agora, um novo fator, o operador:

> OP <-AA [,4]

> OP <-factor (OP)

> OP

> MODELO2 = aov (MD~FT*OP)

> summary (MODELO2)

Obs.: a distribuição Qui-quadrado torna-se bastante importante quando se quer verificar


o ajustamento de uma distribuição de frequência, de uma amostra, a uma distribuição
teórica, como no caso presente, a distribuição normal.

Vamos aprofundar os detalhes do teste da distribuição Qui-quadrado. O aluno deverá


pesquisar a fórmula e a tabela com os graus de liberdade, para produzir um Script
escrito em R.

Script:

> v <-ET-GPS

>v

> gl<-length(v)

> gl

> gl<-gl-1

> gl

17
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

> S0<-sum(sqrt(v*v/gl))

> S0

> Qui<-gl*S0

Nova rodada
Vamos fazer uma nova rodada usando uma tabela modificada e discutir os resultados
do novo erro vm:

Figura 4.

Fonte: Autor.

Obs.: ou calcular o erro de 15 pontos GPS, em três dimensões 3D, e novamente fazer as
análises do erro V:

Tabela 2.

Pontos GPS
Pontos E(m) N(m) H(m)
1 -0,012 -0,003 -0,038
2 -0,002 -0,013 1,008
3 -0,002 -0,009 0,090
4 0,015 0,002 0,121
5 0,012 -0,015 0,087
6 0,026 0,001 0,058
7 -0,027 -0,005 1,076
8 0,026 0,015 2,036
9 0,027 0,023 0,024
10 0,037 0,004 1,054
11 0,04 0,009 -0,048
12 0,055 -0,036 0,054
13 0,065 0,016 0,024
14 0,073 0,016 -0,019
15 0,235 -0,019 0,382
Fonte: Autor.

18
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

Script:

> gps<-read.table (file.choose(), header=T)

> gps

> E<-gps[,1]

>E

> N<-gps[,2]

>N

> H<-gps[,3]

>H

> V<-sqrt(E^2+N^2+H^2)

>V

Script R1 – Completo

> Altimetria <- read.table (file.choose(), header=T)

> Altimetria

> ET <- Altimetria[,1]

> ET

> GPS <- Altimetria[,2]

> GPS

> v <- ET-GPS

>v

> shapiro.test (v)

> plot(v)

> qqnorm(v)

> qqline(v)

19
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

> length(v)

> max(v)

> min(v)

> sum(v)

> v^2

> sqrt(v^2)

> mv <- sum(v)/11

> mv

> mv <- mean(v)

> mv

> sv <- sd(v)

> sv

> hist(v)

> pnorm(11, mv, sv)

> curve(dnorm(x), -2,2)

> t.test(v)

Script R2 – Completo

> AA <- read.table (file.choose(), header=T)

> AA

> MD <- AA[,1]

> MD

> FT <- AA[,2]

> FT

> FT <-factor(FT)

20
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

> FT

> OP <-AA[,4]

> OP

> OP <-factor(OP)

> OP

> MODELO1 = aov(MD~FT)

> summary (MODELO1)

> MODELO2 = aov(MD~FT*OP)

> summary (MODELO2)

Caso prático
No trabalho apresentado, e que foi discutido usando as ferramentas do sistema estatístico
R, podemos fazer algumas analogias e demonstrar a finalidade ou importância de
tudo isso. Por exemplo, vamos imaginar que a primeira medição usando ET e GPS, ou
qualquer outro método, foi uma medição de controle e de alta precisão. Mas no decorrer
dos trabalhos outras medições deverão ser realizadas, com novos métodos ou outros
equipamentos menos precisos, e comparadas com as medições originais. Levando em
consideração todas as estatísticas apresentadas, para validar o primeiro conjunto de
dados, então, poderemos usar simplesmente a função densidade de probabilidade,
da distribuição normal, que depende apenas da média mv e do desvio padrão sv, dos
dados da medição de controle, e dizer, para cada novo conjunto de novas medidas, se
os valores são confiáveis ou não.

12o Passo: avaliar a densidade de probabilidade das novas medições:

Usar o Script R3, a seguir:

> dnorm (vm, mean = mv, sd = sv)

Obs.: vm = Erro da nova rodada

Finalmente vamos terminar essa primeira etapa fazendo uma análise de Correlação
Linear dos dados, conhecida como Correlação Linear de Pearson ou Régua de
Pearson.

21
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

Fica a dica do livro Uma Senhora Toma Chá... Como a estatística revolucionou o
século XX, em que são contadas as histórias de Fisher, Pearson, Student e outros
grandes nomes da estatística.

O sistema R através da função rnorm é capaz de gerar uma distribuição normal.


Devemos informar apenas três parâmetros: o número de observações desejadas, a
média mv e do desvio padrão sv, dos dados de controle.

13o Passo: vamos produzir uma distribuição normal com 11 observações, de média mv
e desvio padrão sv:

> distNorm <- rnorm(11, mean=mv, sd=sv)

14o Passo: calcular a correlação linear dos dados:

Usar o Script R4, a seguir:

> cor (v, distNorm)

Obs.: a correlação linear é uma questão muito importante e que tem aplicação em
praticamente tudo e que pode ser aprofundada com mais detalhes. Porém, no momento,
basta saber que ela varia de 0 a 1. Quanto mais perto de 1 (um) melhor.

Conclusão

Há um grande interesse sobre a aplicação do ajustamento de observações no


georreferenciamento de imóveis rurais. Porém, embora as observações sejam
superabundantes, pois equipamentos como a ET ou o GPS, são capazes de fazer várias
medições (internas) antes de apresentar os resultados, portanto trabalhando com
média e desvio padrão, ou mesmo na própria metodologia do trabalho, onde somos
obrigados a processar o ajustamento de uma rede de apoio, no entanto, na verdade,
falta uma etapa, que é a base ou o verdadeiro objetivo de um trabalho de ajustamento
de observações; O de criar um modelo matemático para simplificar o controle de
futuras medições. O nosso passo a passo chega nessa etapa, mas lógico que com
algumas simplificações. Lembramos também que nessa fase de criação de modelos,
para previsão de novas medidas, ainda poderíamos trabalhar com a simulação dos
dados, usando o Método de Monte Carlo, Redes Neurais ou Análise Bayesiana, por
exemplo.

22
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

14o Passo: fazer uma Regressão Linear dos dados e achar a função matemática:

Usar o Script R5, a seguir:

> MODELO3 <- lm(ETnovo~v)

Aqui vamos ter que usar um pouco mais a imaginação, pois existem várias possibilidades
práticas. Primeiro, vamos imaginar (extrapolando a ideia inicial) que ET e GPS são, na
verdade, parte de um conjunto de pontos de controle, que foram medidos com alta
precisão usando duas técnicas para comparar os resultados. Após isso, rotineiramente,
ao longo do tempo, precisaremos fazer outras verificações, comparadas com as
medições feitas em T0, e que resultaram nas coordenadas da figura 1 Altimetria. Como
foi apresentado ao longo dessa introdução, supomos que o trabalho inicial foi feito com
todo rigor metodológico e com equipamentos de alta precisão, porém, as novas medições
de verificação, certamente, deverão seguir uma rotina mais simplificada. Então, e em
vez de comparar diretamente as novas séries de medições com as coordenadas de
controle, vamos usar um modelo matemático (no nosso caso, simplificado), criado para
cada ponto P (ET e GPS), para comparar os resultados. Podemos ter N pontos P2 (ET2,
GPS2), P3 (ET3, GPS3) etc., onde esse processo ou procedimento poderia ser repetido.

Script R3 – Completo

> Altimetria <- read.table (file.choose(), header=T)

> Altimetria

> ET <- Altimetria[,1]

> ET

> GPS <- Altimetria[,2]

> GPS

> v <- ET-GPS

>v

> mv <- mean(v)

> mv

> sv <- sd(v)

> sv

23
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

> Modificada <- read.table (file.choose(), header=T)

> Modificada

> ETm <- Modificada[,1]

> ETm

> GPSm <- Modificada[,2]

> GPSm

> vm <- ETm-GPSm

> vm

> dnorm(vm, mean = mv, sd = sv)

Script R4 – Completo

> Altimetria <- read.table (file.choose(), header=T)

> Altimetria

> ET <- Altimetria[,1]

> ET

> GPS <- Altimetria[,2]

> GPS

> v <- ET-GPS

>v

> mv <- mean(v)

> mv

> sv <- sd(v)

> sv

> distNorm <- rnorm(11, mean=mv, sd=sv)

> distNorm

> cor (v,distNorm)

24
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

Script R5 – Completo

> Altimetria <- read.table (file.choose(), header=T)

> Altimetria

> ET <- Altimetria[,1]

> ET

> GPS <- Altimetria[,2]

> GPS

> v <- ET-GPS

>v

> mv <- mean(v)

> mv

> sv <- sd(v)

> sv

> MODELO3 <- lm(ET~v)

> summary(MODELO3)

Ou

> MODELO4 <- lm(GPS~v)

> summary(MODELO4)

> v2 <- rnorm(11, mean=mv, sd=sv)

> v2

> v2 <- mean(v2)

> v2

> v3 <- rnorm(11, mean=mv, sd=sv)

> v3

25
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

> v3<- mean(v3)

> v3

> ET = - 112.014 * v2 + 949.095

> ET

> GPS = -113.014 * v3 + 949.095

> GPS

Matemática não linear, um novo ingrediente


na busca por eficiência
Da Business Week

Acima de tudo, os engenheiros são pessoas práticas. Se desenvolver uma câmera


perfeita ou uma refinaria de petróleo toma muito tempo, eles se decidem
por um projeto que seja apenas “suficientemente bom”. Contudo, isso vai-se
tornando cada vez mais insuficiente. Nas empresas movidas pela competição
para extrair a última gota de eficiência da manufatura e projetar produtos
com tolerância muito mais rígidos, os engenheiros estão sendo forçados a
se aprofundar numa nova caixa de ferramentas da matemática. E o resultado
final, acreditam os especialistas, revolucionará a engenharia como a Mecânica
Quântica transformou a Física.

As novas ferramentas são chamadas equações não lineares, e o nome diz tudo.
Essas equações são utilizadas para descrever com precisão o comportamento das
coisas com uma faceta imprevisível. Isto inclui quase tudo: do funcionamento de
motores de carros à ação das moléculas do DNA. Até mesmo assar um bolo é
não linear: elevando a temperatura do forno duas vezes mais não assaria o bolo
duas vezes mais rápido. E com algumas receitas industriais, como as de produzir
medicamentos e plásticos, uma minúscula nos ingredientes ou nas condições
de processamento pode significar uma enorme diferença no produto final.
A matemática não linear pode ajudar a explicar esses efeitos assimétricos. Para
resumir, ela “permite a você descrever as coisas da forma que elas funcionam no
mundo real”, diz David Kinderlehrer, diretor do Centro de Análise Não-Linear da
Universidade de Minnesota.

Os engenheiros evitavam as equações não lineares até agora porque obter


boas respostas é terrivelmente difícil. Desde que você não esteja certo de como

26
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

qualquer mudança vai afetar o resultado, você tem que se ligar em todas as
variações concebíveis e resolver as equações milhares ou milhões de vezes.
Antigamente, até mesmo um simples problema não linear era um trabalho para
um supercomputador – e os problemas mais difíceis ainda são irresolvíveis: eles
tomariam décadas de contínua realização de cálculos.

Mas agora essas estações de trabalho com desktop podem ultrapassar os


supercomputadores de ontem, e os matemáticos têm os meios para enfrentar
uma gama muito mais ampla de desafios industriais. E para muitos desses desafios
com os quais ainda são demasiadamente difícil de lidar, os programadores
estão criando atalhos para aproximações que tornam o “suficientemente bom”
muito melhor. “Estão sendo feitos grandes progressos nas técnicas para resolver
grandes e complexos problemas”, diz James L. Philips gerente de engenharia e
análise matemática da Boeing Co.

Ele deveria saber. A Boeing vem utilizando essas técnicas não lineares como a
dinâmica computacional dos fluídos (DFC) desde a década de 1970. A DFC envolve
elaboração de um projeto de estrutura de um avião em milhares ou milhões
de formas interconectadas chamadas de elementos finitos. Quanto mais houver,
tanto mais precisos serão os resultados. O modelo de computador resultante é
coberto com uma “rede”, que a faz parecer estar embrulhada amarrotadamente
em papel de gráfico. Depois o computador simula uma corrente de ar sobre cada
elemento e integra todas as respostas para determinar como o avião voará bem.

O último software da DFC, que custa uma fração das versões iniciais, gera a rede
até automaticamente, economizando dias de tempo de engenharia. Como
resultado a Boeing imagina que ele agora paga para reformar os aviões velhos.
Uma edição futura do 737 de trintas anos de vida útil será mais leve, carregará
mais carga útil, e utilizará menos combustível.

A grande notícia é que a matemática não linear está se estendendo a muitos


outros setores. A General Motors Corp. Está fazendo testes de colisão com
modelos de elementos finitos em vez de fazê-los em carros reais – e tem
aperfeiçoado o “software” não linear para projetar os painéis interiores. “Nós
seremos capazes de explorar as alterações do projeto muito mais facilmente do
que antes”, diz James C. Cavendish, principal cientista pesquisador do centro de
pesquisas da GM.

Enquanto isso, a IBM se voltou para a DCF para melhorar os seus acionadores
de discos rígidos. A cabeça “read/write”, que desliza sobre o disco a 30 milhas
por hora, cria tanta pressão aerodinâmica que os engenheiros não poderiam

27
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

imaginar como reduzir a defasagem entre os componentes para menos de um


milímetro. Com as equações não lineares eles conseguiram reduzi-la para um
micrômetro – um milésimo de um milímetro. Isso aumenta a capacidade de
armazenagem, uma vez que uma maior proximidade permite que a cabeça leia
e escreva pontos magnéticos menores.

O interessante vai além da alta tecnologia. Os produtores de aço encomendaram


estudos de novos projetos de fornos. E no laboratório de Los Álamos, a Mobil
Oil Corp. Está financiando o desenvolvimento de um “software” que simula o
movimento do petróleo das rochas porosas – para ajudar a melhorar as técnicas
de extração.

Virtualmente, para qualquer produto agora há ferramentas não lineares para


lidar com projetos e conseguir um feedback preciso em questão de horas.
Os engenheiros estão, desta vez, gastando mais tempo aperfeiçoando projetos
– muitas vezes tentando centenas de alternativas, diz Luiz F. Reyna, gerente de
análise e modelagem no Laboratório de Pesquisa Thomas J. Watson da IBM. Isso
é importante porque de 70 a 90% do custo total de um produto é fixado durante
a fase de elaboração do projeto.

A matemática não linear está também descobrindo novas abordagens para


os assim chamados problemas de otimização – encontrando a melhor forma
de administrar uma fábrica, programar frota de caminhões e motoristas,
ou administrar uma carteira de ações. Aqui, mesmo encontrar uma solução
suficientemente boa é difícil. Mas David L. Jensen, gerente de otimização
matemática da divisão de pesquisa da IBM, está adaptando a otimização
quadrática para calcular rapidamente o equilíbrio ótimo entre o risco e o lucro
do portfólio. (GAZETA MERCANTIL, 1994)

Os setores mais beneficiados

Os principais setores que estão se beneficiando com o software baseado na


matemática não linear.

Setor aeroespacial

OS engenheiros podem simular a aerodinâmica de uma estrutura completa de


um avião em vez de somente as asas, melhorando o desempenho e reduzindo
custos.

28
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

Biotecnologia

Os geneticistas estão conseguindo um controle melhor sobre o complexo


comportamento do DNA. Eventualmente, as descobertas mais importantes da
biologia podem estar relacionadas com o computador, e não com tubos de
ensaio e experiências.

Carros

Os projetistas podem modelar carrocerias de carros mais fortes e mais seguras.

Finanças

Os “traders” estão utilizando os algoritmos da “otimização não linear” para ajudar


a maximizar e minimizar os riscos.

Manufatura

Os produtores de produtos químicos e de petróleo estão arquitetando processos


produtivos mais eficientes, e os produtores estão projetando produtos para
tolerâncias mais rígidas.

O que é um sinal
Segundo Weeks (2012) um sinal é um fenômeno variável que pode ser medido. Muitas
vezes trata-se de uma quantidade física que varia com o tempo, embora também
possa variar com outro parâmetro, tal como o espaço. Exemplos incluem o som (ou,
mais precisamente, a pressão acústica), uma tensão (tal como as diferenças de tensão
produzidas por um microfone), radar e imagens transmitidas por câmeras de vídeo.
A temperatura é outro exemplo de sinal. Medida a cada hora, a temperatura flutuará,
indo normalmente de um valor baixo (ao amanhecer) para um valor mais alto (no final
da manhã), até um ainda maior ainda (à tarde) e depois para um valor mais baixo
(ao anoitecer), até finalmente atingir um valor baixo à noite, novamente. Em muitos
casos, devemos examinar o sinal ao longo de um período de tempo. Se, por exemplo,
você estiver planejando viajar para uma cidade distante, saber a temperatura média
na cidade pode lhe dar uma noção das roupas a serem postas na mala. Mas, se você
verificar como a temperatura muda ao longo de um dia, poderá saber se precisará ou
não levar uma jaqueta.

Os sinais podem conter erros devido às limitações dos dispositivos de medição ou


devido ao ambiente. Um sensor de temperatura, por exemplo, pode ser afetado por

29
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

um vento frio. Na melhor das hipóteses, os sinais representados por um computador


constituem boas aproximações dos processos físicos originais.

Alguns sinais reais, como a temperatura, podem ser medidos continuamente. Não
importa por quanto tempo você olhar para um termômetro, ele fornecerá uma leitura,
mesmo que o tempo entre as leituras seja arbitrariamente curto. Podemos registar
a temperatura em intervalos de um segundo, um minuto, uma hora etc. Uma vez
que tenhamos registrado essas medições; compreenderemos intuitivamente que a
temperatura possui valores entre as leituras e que não sabemos quais seriam eles.
Se soprar um vento frio, a temperatura cairá e, se o sol brilhar entre as nuvens, ela
subirá. Suponha, por exemplo, que meçamos a temperatura a cada hora. Ao fazermos
isso, estamos optando por ignorar a temperatura o tempo todo exceto durante as
leituras de hora em hora. Trata-se de uma ideia importante: o sinal pode variar ao
longo do tempo, mas, quando fazemos leituras periódicas do sinal, terminamos apenas
com uma representação do mesmo.

Um sinal pode ser imaginado como uma sequência (Contínua ou discreta) de valores
(Contínuos ou discretos). Ou seja, um sinal contínuo pode ter valores em qualquer
valor de índice (index) arbitrário (você pode medir a temperatura ao meio-dia ou, caso
deseje, medi-la 0,0000000003 segundos após o meio-dia).

Um sinal discreto, entretanto, possui restrições quanto ao índice – normalmente, a


de que ele deve ser inteiro. Por exemplo, a massa de cada planeta em nosso sistema
solar poderia ser registrada, numerando-se os planetas de acordo com as suas posições
relativas a partir do sol. Para simplificar, presume-se que um sinal discreto possua
um índice inteiro e que a relação entre o índice e o tempo (ou qualquer que seja o
parâmetro) seja fornecida.

Da mesma forma, os valores para o sinal podem ser medidos com uma precisão arbitrária
(contínua) ou com uma precisão limitada (discreta). Isto é, você poderia registar a
temperatura em milionésimos de grau ou poderia limitar os valores a um nível razoável,
tal como um dígito além do decimal. Discreto não significa inteiro, e sim que os valores
poderiam ser armazenados como um número racional (um inteiro dividido por outro
inteiro). Por exemplo, 72,3 graus Fahrenheit poderiam ser encarados como 723/10. Isso
implica que números irracionais não podem ser armazenados em um computador, mas
apenas aproximados. Um bom exemplo é π. Você pode escrever 3.14 para representar
π, mas trata-se de uma mera aproximação. E, se você escreveu 3,141592654 para
representar π, ainda assim não passou de uma aproximação. Na verdade, você poderia
representá-lo com 50 milhões de dígitos e mesmo assim continuaria sendo somente
uma aproximação!

30
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

É possível considerar um sinal cujo índice seja contínuo e cujos valores sejam discretos,
tal como o número de pessoas presentes em um edifício em um dado momento.
O índice (tempo) pode ser medido em frações de segundo, enquanto o número de pessoas
é sempre um número inteiro. Também é possível lidar com um sinal em que o índice
seja discreto e os valores sejam contínuos; por exemplo, a hora de nascimento de cada
pessoa em uma cidade. A pessoa no 4 pode ter nascido apenas 1 microssegundo antes da
pessoa no 5, mas tecnicamente elas não nasceram ao mesmo tempo. Isso não significa
que duas pessoas não podem ter a mesma hora de nascimento, mas que podemos ser
tão precisos quanto desejamos em relação a essa hora.

Na maioria dos casos, concentramos nossa atenção nos sinais contínuos (que possuam
um índice contínuo e um valor contínuo) e nos sinais discretos (com um índice
inteiro e um valor discreto). A maior parte dos sinais na natureza é contínua, mas os
sinais representados no interior de um computador são discretos. Um sinal discreto
frequentemente é uma aproximação de um valor contínuo.

Concentraremos nossa atenção nos sinais contínuo/contínuo e discreto/discreto, pois


são os que encontramos no mundo real e no mundo computacional, respectivamente.
Doravante nos referiremos a esses sinais como analógico e digital, respectivamente.

No âmbito digital, um sinal não é mais do que uma lista de números. Ele pode ser
encarado como um vetor, uma matriz unidimensional. Naturalmente, existem
sinais multidimensionais, tais como as imagens, que são simplesmente matrizes
bidimensionais. Encarar os sinais como matrizes constitui uma importante etapa
analítica, por permitir que utilizemos álgebra linear com os nossos sinais. Ou seja,
uma lista de números poderia corresponder às mudanças na pressão acústica
medida em intervalos de 1 milissegundo ou poderia ser a temperatura em graus
centígrados medida a cada hora.

Os sinais frequentemente são estudados em termos de tempo e amplitude.


A amplitude é utilizada como uma forma geral de rotulagem das unidades de um
sinal, sem estar limitada pelo sinal específico. Quando se fala da amplitude de um
valore de um sinal, não importa se esse valor é medido em graus centígrados, pressão
ou tensão. (WEEKS, 2012)

Script: séries temporais função TS


Neste exemplo, vamos fazer inferência sobre um único ponto de mudança em uma série
temporal. Os dados são de acidentes por ano em minas de carvão na Inglaterra. Foram
registrados todos os acidentes que envolveram pelo menos 10 mortes entre 1851 e 1962.

31
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

A partir do gráfico, podemos ver uma mudança em torno do ano 1900. O número médio
de acidentes a partir de então parece ficar bem reduzido em comparação com o período
anterior.

> yr<- 1851:1962

>ac<- c(4,5,4,1,0,4,3,4,0,6,3,3,4,0,2,6,3,3,5,4,5,3,1,4,4,1,5,5,3,4,2,5,2,2,3,4,2,1,3,2,2,1,
1,1,1,3,0,0,1,0,1,1,0,0,3,1,0,3,2,2,0,1,1,1,0,1,0,1,0,0,0,2,1,0,0,0,1,1,0,2,3,3,1,1,2,1,1,1,1,2,
4,2,0,0,0,1,4,0,0,0,1,0,0,0,0,0,1,0,0,1,0,1)

> ac

> summary(ac)

> st<- ts(ac, start= c(1851,1), freq=12)

> class(st)

> st

> plot(st)

> plot(yr, ac)

> plot(yr, ac, type=”l”)

> dec<- decompose(st)

> dec$seasonal

> plot(dec$seasonal)

> plot(dec$trend)

> plot(dec$random)

> plot(dec)

Visite site do INPE e veja os dados das séries temporais do satélite MODIS.

32
CAPÍTULO 2
Introdução ao ajustamento de
observações

Ótimo quer dizer o melhor, em relação a um determinado critério. Como se sabe há


uma, certa, velocidade na condução de um veículo que o consumo de combustível é
menor em relação a um percurso, num determinado tempo. Nesse caso, o critério é a
velocidade, que minimiza o consumo de combustível ou tempo de trajeto.

Chama-se de otimização todo o processo pelo qual se procura determinar ou encontrar


a solução ou situação ótima. Porém na maioria dos problemas a solução é bastante
complexa, principalmente por causa dos numerosos critérios ou das condições
conflitantes.

Critérios contraditórios aparecem com bastante frequência, imagine o estudo para o


traçado de uma nova rodovia, nesse caso, o custo de execução, impacto ambiental e
tempo de execução, podem ser critérios conflitantes, e portanto, devem ser padronizados,
antes de se buscar, ou encontrar, a melhor solução.

Certos fenômenos biológicos dependem de condições ideais de temperatura para o seu


melhor desenvolvimento, o lucro na engorda de animais depende do consumo de ração
ao longo do tempo, o crescimento da população também pode ser comparado por sua
variação ao longo do tempo etc.

Poderíamos citadas inúmeras situações da vida cotidiana onde os fenômenos da


variação estão ligados à solução de algum problema. Em todo caso haverá sempre um
valor ótimo a ser encontrado para a variável independe (rapidez do trabalho, preço,
segurança de operação etc.) em relação à variável dependente, ou critério escolhido.

Muitos modelos matemáticos podem ser aplicados na solução desses diversos


problemas, porém, no nosso caso de estudo, estaremos focados no ajustamento
de observações, relacionadas ao georreferenciamento de imóveis rurais, ligados
a geotecnologias ou geociências como, topografia, geodesia, geoprocessamento,
sistemas de posicionamento global, como o GPS, além de outras áreas da geomática
que dependem diretamente da busca de alguma solução otimizada, minimizando o
erro das observações, de um sistema de equações.

As observações são representações numéricas de quantidades físicas como


comprimento, ângulo, peso etc. As quantidades numéricas são obtidas através de
medições; possuem, portanto, não apenas as flutuações próprias das observações,

33
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

mas também toda sorte de erros possíveis de ocorrer nas medições, identificações,
anotações e transferência de dados. (DALMOLIN, 2004)

As medidas que representam uma mesma quantidade possuem dispersão com respeito
a uma média, o que se chama de flutuações randômicas próprias das observações ou
erros randômicos, também chamados erros acidentais. Esse tipo de erro será o objeto
de nosso estudo, pois devidos às flutuações randômicas (pequenos erros) os sistemas
de equações (propostos para os diversos problemas apresentados) serão inconsistente
e exigirão uma solução pelo Método dos Mínimos Quadrados.

Porém as medidas podem ainda possuir outros erros, como os erros grosseiros, um
bom exemplo seria os erros de anotação e os erros sistemáticos quando se trabalha
com instrumentos mal calibrados. Esses erros devem ser eliminados basicamente por
procedimentos operacionais. Já os erros acidentais jamais poderão ser eliminados, não
existe mensuração sem esses erros, por mais preciso que possa ser o instrumento de
medida, eles sempre vão ocorrer.

Como já foi observado anteriormente vamos utilizar o sistema estatístico R e o


LibreOffice Calc como ferramentas para auxiliar na resolução dos diversos problemas
que serão apresentados ao longo deste material.

O objetivo principal deste Caderno de Estudos é apresentar aos alunos uma introdução
consistente do Método dos Mínimos Quadrados e dar ênfase ao modelo paramétrico
em problemas práticos de georreferenciamento de imóveis rurais, principalmente
ajustamento de redes de controle.

Rede de referência cadastral: rede de apoio básico de âmbito municipal para todos os
levantamentos que se destinem a projetos, cadastros ou implantação de obras, sendo
constituída por pontos de coordenadas planialtimétricas materializados no terreno,
referenciados a uma única origem (Sistema Geodésico Brasileiro – SGB) e a um
mesmo sistema de representação cartográfica, permitindo a amarração e consequente
incorporação de todos os trabalhos de topografia num mapeamento de referência
cadastral. Compreendem, em escala hierárquica quanto à exatidão, os pontos geodésicos
(de precisão e de apoio imediato), pontos topográficos e pontos referenciadores de
quadras ou glebas, todos codificados, numerados e localizados no mapeamento de
referência cadastral. (NBR 13133, 1994)

É notável que uma ciência que começou com jogos de azar tenha se tornado o
mais importante objeto do conhecimento humano.

Pierre Simon Laplace

Deus não joga dados com o universo.

Albert Einstein

34
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

O demônio de Laplace

Em 1814, Laplace refere-se, em um ensaio sobre as probabilidades, a uma ideia que


se tornaria base de partida para todos os debates futuros sobre o caos, o acaso e o
determinismo. Trata-se de uma entidade que poderia ter pleno conhecimento sobre
todos os fatos. − “Devemos, portanto, ver o estado presente do universo como o efeito
de seu estado anterior, e como a causa daquele que virá”. Uma inteligência que, em
qualquer instante dado, soubesse todas as forças pelas quais o mundo natural se move
e a posição de cada uma de suas partes componentes, e que tivesse a capacidade de
submeter todos estes dados a um processamento matemático, compilando numa
mesma fórmula os movimentos dos maiores e dos menores objetos do universo; nada
seria incerto para ele, e o futuro, assim como o passado estaria presente diante de seus
olhos.

Porém, a observação de planetas e cometas a partir da Terra não se ajustava com precisão
às posições previstas matematicamente, fato que levou Laplace e seus colegas cientistas
atribuírem a erros nas observações, algumas vezes atribuíveis a alterações na atmosfera
da Terra (erros sistemáticos), outras vezes a falhas humanas (erros grosseiros). Laplace
reuniu todos esses erros numa peça extra (a função erro), que atrelou a suas descrições
matemáticas. Essa função erro absorveu as imprecisões e deixou apenas as puras leis do
movimento para prever as verdadeiras posições dos corpos celestes. Acreditava-se que,
com medições cada vez mais precisas, diminuiria a necessidade da função erro. Como
ela dava conta de pequenas discrepâncias entre observado e previsto (erros aleatórios).

No entanto, a ciência do século XIX ainda estava nas garras do determinismo filosófico
– a crença de que tudo é determinado de antemão pelas condições iniciais do Universo
e pelas fórmulas matemáticas que descrevem seus movimentos.

No final do século XIX, os erros tinham aumentado, em vez de diminuir. À proporção


que as medições se tornaram mais precisas, novos erros se revelaram. O andar do
Universo mecânico era trôpego. Falharam as tentativas de descobrir as leis da biologia
e da sociologia. Nas antigas ciências, como a física e a química, as leis que Newton e
Laplace tinham utilizado mostravam-se meras aproximações grosseiras.

Gradualmente, a ciência começou a trabalhar com um novo paradigma, o modelo


estatístico da realidade. No final do século XX, quase toda a ciência tinha passado a
usar os modelos estatísticos. (SALSBURG, 2009)

35
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

Erros grosseiros
A desatenção do observador pode conduzir a erros grosseiros como a inversão de dígitos
numa leitura, a troca do bordo visado na medida da distância zenital do Sol etc.

Até mesmo quando o registro das informações se processa eletronicamente existe


a possibilidade de erros grosseiros. É o caso, para exemplificar na área da Geodesia
Celeste, do posicionamento pelo rastreio de satélites explorando o Efeito Doppler;
certas “palavras”, irradiadas em código pelo satélite e gravadas eletronicamente no
receptor, podem ter dígitos alterados pelo ruído (noise) comum nas transmissões.

Observações eivadas de erros grosseiros às vezes se constituem em problemas, pois a


detecção dos mesmos é fácil em certos casos (erros muito grandes, por exemplo) e pode
tornar-se difícil em outros casos.

Muitas vezes somente um teste estatístico pode justificar ou não a rejeição de uma
observação suspeita de abrigar um erro grosseiro.

De qualquer forma cabe ao observador cercar-se de precauções, variáveis com


a natureza da medida, visando evitar a sua ocorrência ou detectar a sua presença.
(GEMAEL, 1994)

Erros sistemáticos
Os chamados erros sistemáticos, produzidos por causas conhecidas, podem ser evitados
através de técnicas de observação ou eliminados a posteriori mediante fórmulas
fornecidas pela teoria.

A medida eletrônica de uma distância deve ser depurada do efeito da refração; a leitura
de um gravímetro expurgada da influência da atração luni-solar; a distância zenital
de uma estrela corrigida da aberração diurna etc. Obviamente, não se trata de “erros”
mas de influências das condições ambientais que devem ser neutralizadas através de
modelos matemáticos estabelecidos.

Já a reiteração e a pontaria completa (posição direta e inversa) nas observações


angulares e a colocação do nível a igual distância das miras de nivelamento geométrico,
são exemplos de planejamento para evitar certas influências sistemáticas.

Focalizamos assim diversos casos de erros sistemáticos ligados a equipamentos de


mensuração e às condições ambientais em que se processa a observação. Mas erros
sistemáticos também podem estar associados ao homem; é o caso do operador que

36
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

efetua a cronometragem sempre um pouco antes (ou sempre um pouco depois) da


estrela cruzar o fio do retículo; ou do nivelador que procede a leitura sempre um pouco
abaixo (ou sempre um pouco acima) do traço da mira. Trata-se de erros de eliminação
problemática exceto nos casos de observações diferenciais. (GEMAEL, 1994)

Erros acidentais ou aleatórios


Eliminados os erros sistemáticos, as observações repetidas sobre a mesma grandeza
ainda se revelam inconsistentes; as discrepâncias constatadas são atribuídas aos erros
acidentais ou aleatórios que, ao contrário dos anteriores, ocorrem ora num sentido ora
noutro sentido e que não podem ser vinculados a nenhuma causa conhecida.

Os erros sistemáticos, como a própria denominação sugere, tendem a se acumular; os


acidentais, por apresentarem distribuição normal tendem a se neutralizar quando o
número de observações cresce ou tende ao infinito.

Bem por isso, antes de iniciar um ajustamento, devemos depurar as observações de


todas as tendências sistemáticas, uma vez que a nossa atenção irá se concentrar nos
erros acidentais. (GEMAEL, 1994)

Precisão x exatidão x viés


Nos textos de língua inglesa ocorrem dois vocábulos, accuracy e precision que apesar
de aparentados não são sinônimos, e que traduzidos respectivamente por acurácia e
precisão.

O termo precisão está vinculado apenas a efeitos aleatórios (ou com a dispersão dos
dados ou das observações) enquanto acurácia (exatidão) vincula-se a ambos, efeitos
aleatórios e sistemáticos.

Acurácia: proximidade da medida relativamente ao verdadeiro valor da variável.

Precisão: proximidade entre os valores obtidos pela repetição do processo de


mensuração.

Exatidão: correção, perfeição ou ausência de erro em uma medida ou cálculo.

Em mensuração os termos exatidão e precisão são considerados como características


do processo de medição. A exatidão está associada à proximidade do valor verdadeiro e
a precisão está associada à dispersão dos valores resultantes de uma série de medidas.

37
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

Precisão: significa a aptidão de um instrumento de medição fornecer indicações muito


próximas, quando se mede o mesmo mensurando, sob as mesmas condições. Define o
quanto um instrumento é capaz de reproduzir um valor obtido numa medição, mesmo
que ele não esteja correto.

A precisão é definida pelo desvio padrão de uma série de medidas de uma mesma
amostra ou um mesmo ponto. Quanto maior o desvio padrão, menor é a precisão.

A precisão está relacionada com as incertezas aleatórias da medição e tem relação com
a qualidade do instrumento.

Exatidão: é a aptidão de um instrumento para dar respostas próximas ao valor


verdadeiro do mensurando. É a capacidade que o instrumento de medição tem de
fornecer um resultado correto. Um equipamento exato é aquele que, após uma série
de medições, nos fornece um valor médio que é próximo ao real, mesmo que o desvio
padrão seja elevado, ou seja, apresente baixa precisão. A exatidão está relacionada às
incertezas sistemáticas da medição. A exatidão pode ser avaliada através da calibração
do instrumento.

Figura 5.

Fonte: <www.calibraend.com.br>

a. Grande dispersão de resultados. Erros fortuitos elevados. Existência de


erros sistemáticos: resultado não preciso e não exato.

b. Baixa dispersão de resultados. Erros fortuitos pequenos. Existência de


erros sistemáticos: resultado preciso, mas não exato.

c. Grande dispersão de resultados. Erros fortuitos elevados. Não existência


de erros sistemáticos: resultado não preciso, mas exato.

d. Baixa dispersão de resultados. Erros fortuitos pequenos. Não existência


de erros sistemáticos: resultado preciso e exato.

38
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

Figura 6.

Fonte: Autor.

Observações diretas x indiretas x diretas


condicionadas
Diretas: numa poligonal o geodesista necessita conhecer ângulos e distância para efetuar
o transporte de coordenadas. A medida angular entre dois lados consecutivos constitui
um exemplo de observações diretas, isto é, da observação que procuramos diretamente
sobre a grandeza procurada. O mesmo se pode dizer da medida de comprimento de um
desses lados com basímetro de ínvar (ou trena). Medimos diretamente uma grandeza
que se relaciona, por meio de um modelo matemático com as incógnitas que realmente
nos interessam. (GEMAEL, 1994)

Indiretas: já a medida do mesmo comprimento com um distanciômetro eletrônico não


pode, a rigor, ser enfocada sob o mesmo prisma apesar de o dial exibir diretamente
uma distância; “para medir uma grandeza” nós a comparamos com outra da mesma
espécie denominada unidade; mas neste caso o equipamento mede, na realidade, uma
diferença de fase que é convertida sucessivamente em intervalos de tempo e distância.
Não se trata, portanto, de uma mensuração direta sobre a grandeza procurada. Vejamos
um exemplo: cronometrando a passagem de uma série de vinte estrelas pelo mesmo
almicantarado visando à obtenção da latitude. (GEMAEL, 1994)

Diretas condicionadas: podemos focalizar ainda um terceiro caso: medindo dois ângulos
de um triângulo geodésico com um teodolito estamos realizando observações diretas;
mas se estendermos a mensuração ao terceiro ângulo introduziremos uma condição
geométrica através de uma observação superabundante, pois os três ângulos de um
triângulo são funcionalmente dependentes. Nesse caso as observações se dizem diretas
condicionadas.
39
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

Ajuste de função
Um problema fundamental da teoria de erros consiste em obter a melhor função f(x)
para descrever um conjunto de pontos experimentais obtidos em medidas de grandezas
x e y. Graficamente, o problema consiste em traçar a curva que melhor descreva o
conjunto de pontos em questão. Este processo é chamado ajuste de uma função ao
conjunto de pontos experimentais ou regressão, simplesmente. (VUOLO, 1992)

Regressão linear
A regressão linear é chamada linear porque se considera que a relação da resposta às
variáveis é uma função linear de alguns parâmetros. Os modelos de regressão que não são
uma função linear dos parâmetros se chamam modelos de regressão não linear. Sendo
uma das primeiras formas de análise regressiva a ser estudada rigorosamente, e usada
extensamente em aplicações práticas. Isso acontece porque modelos que dependem
de forma linear dos seus parâmetros desconhecidos são mais fáceis de ajustar que os
modelos não lineares aos seus parâmetros, e porque as propriedades estatísticas dos
estimadores resultantes são fáceis de determinar. (REIS, 1994)

> x<- c(1:20)

>x

> y<- x

>y

> plot(x,y)

Figura 7.

Fonte: Autor.

40
INTRODUÇÃO E PROCEDIMENTOS │ UNIDADE I

Regressão não linear

A regressão não linear é uma forma de análise observacional em que os dados são
modelados por uma função que é uma combinação não linear de parâmetros do modelo
e depende de uma ou mais variáveis independentes. Os dados são ajustados geralmente
pelo Método dos Mínimos Quadrados ou por algum método de aproximações sucessivas.
Um modelo de regressão é não linear quando pelo menos um dos seus parâmetros
aparece de forma não linear. (MAZUCHELI, 2010)

> x<- c(1:20)

>x

> y<- x^2

>y

> plot (x,y)

Figura 8.

Fonte: Autor.

Obs.: o problema de ajustar uma função arbitrária a um conjunto de pontos experimentais


não tem solução definitiva. Uma infinidade de funções poderia ser ajustada aos pontos
da figura 8, todas satisfatórias do ponto de vista estatístico.

No que segue é considerado o problema mais restrito de ajustar uma particular função
entre tipos de funções com formas predeterminadas. Como exemplo deste procedimento,
pode-se considerar o problema de ajustar um polinômio de grau qualquer aos pontos

41
UNIDADE I │ INTRODUÇÃO E PROCEDIMENTOS

da figura 8. A solução do problema consiste em determinar o polinômio mais adequado


para descrever os pontos experimentais. (VUOLO, 1992)

As funções de formas predeterminadas a serem ajustadas podem ser caracterizadas


por p parâmetros a1, a2, …, ai, …. ap. Neste caso, o problema de ajustar uma função se
reduz a determinar os valores dos parâmetros que são mais adequados. Por exemplo,
um polinômio é dado por:

f(x) = a1 + a2x + a3x2 + … + aj+ixj + … + apxp-1

Nesse caso, devem ser determinados o grau (p – 1) do polinômio, bem como os valores
dos coeficientes ou parâmetros a a1 + a2 + a3 + … + aj+i + … + ap

Obs.: uma função f(x) pode ser “expandida” também em uma série de Fourier onde a
função é aproximada pela soma de senos e cossenos do seguinte modo:

f(x) = a0+ a1 sen(x) +a2 sen(2x) +a3 sen(3x)+ ... + b1 cos(x) + b2 cos(2x) + ...

Fourier conseguiu achar uma forma simples e elegante de calcular esses coeficientes
a0, a1, a2, ... , b1, b2.

42
PRÁTICAS UNIDADE II

CAPÍTULO 1
Princípios de ajustamento de
observações

Figura 9. Método dos Mínimos Quadrados – MMQ.

Fonte: Adaptado de Prandiano, 1998.

43
UNIDADE II │ PRÁTICAS

Figura 10.

Fonte: Adaptado de Prandiano,1998.

Segue o ajustamento de uma reta ou equação de 1o grau pelo MMQ

Existem vários fenômenos onde uma função, ou curva, apresenta distribuição


linear:

S = ∑ [yi − fi]²

S = ∑ [yi − (ax + b)]²

Tabela 3. (Ajustar para 4 pontos)

x 1 4 3 5

y 3 4 2,5 0,5

Fonte: Autor.

S = [y₁ −(ax₁ + b)]² + [y₂ −(ax₂ + b)]² + [y₃ −(ax₃ + b)]² + [y₄ −(ax₄ + b)]²

S = [3 −(1a + b)]² + [4 −(2a + b)]² + [2,5 −(3a + b)]² + [0,5 − (5a + b)]²

44
PRÁTICAS │ UNIDADE II

Derivando

∂ S/∂ a = 2[3 − a − b]¹( − 1) + 2[4 − 2a − b]¹( − 2) + 2[2,5 − 3a − b]¹( − 3) + 2[0,5 −


5a − b]¹( − 5) = 0

∂ S/∂ b = 2[3 − a − b]¹( − 1) + 2[4 − 2a − b]¹( − 1) + 2[2,5 − 3a − b]¹( − 1) + 2[0,5 −


5a − b]¹( − 5) = 0

S1 – Resolvendo do sistema:

21 – 39a – 11b = 0

10 – 11a – 4b = 0

Resulta:

f(x) = -0,742x + 4,542

Assista ao vídeo no YouTube: <https://youtu.be/0o_wuKE-mm4>

D-1 – Dados referentes ao Lucro Operacional Líquido de uma companhia durante os 6


primeiros anos de operação:

Tabela 4. (Ajustar para 6 pontos)

Ano Ano Lucro Operacional Líquido em (em


1.000 reais)
2009 1 112
2010 2 149
2011 3 238
2012 4 354
2013 5 580
2014 6 867
Fonte: Autor.

Ajustar os dados através de um modelo linear.

SCRIPT 06 – Lucro Líquido x Ano (colar na linha de comando do Sistema R e dar


Ctrl R)

> ano <- c(1,2,3,4,5,6) # (Coluna ou vetor)

> ano

45
UNIDADE II │ PRÁTICAS

> lucro_liq <- c(112,149,238,354,580,867) # (Coluna ou vetor)

> lucro_liq

> plot (lucro_liq ~ ano)

> modLn <- lm (lucro_liq ~ ano)

> modLn

> abline (modLn)

Figura 11. Os dados seguem uma curva exponencial.

Fonte: Autor.

Figura 12. Os dados não se ajustam a uma curva linear.

Fonte: Autor.

46
PRÁTICAS │ UNIDADE II

SCRIPT 06 (continuação) – Lucro Líquido x Ano (colar a outra parte na linha de


comando do Sistema R e dar Ctrl R)

> lucro_liq_l <- log(lucro_liq)

> luro_liq_l

> plot (lucro_liq_l ~ ano)

> modLn <- lm (lucro_liq_l ~ ano)

> modLn

> abline (modLn)

Figura 13. Após a transformação usando logaritmo, os dados seguem uma curva linear.

Fonte: Autor

Figura 14. Os dados se ajustam a uma curva linear.

Fonte: Autor

47
UNIDADE II │ PRÁTICAS

D2 – Dados referentes à Consumo x Renda

Tabela 5. (Ajustar para 6 pontos).

Ano Consumo (em 1.000 reais) Renda (em 1.000 reais)


2009 122 139
2010 114 126
2011 86 90
2012 134 144
2013 146 163
2014 107 136
Fonte: Autor.

Ajustar os dados através de um modelo linear (adaptar o Script R-6).

SCRIPT R-07 – Produção de leite x Índice pluviométrico

> y_prod_leite <- c (26,25,31,29,27,31,32,28,30,30)

> y_prod_leite

> ny <- length(y_prod_leite)

> ny

> x_indice_pluv <- c (23,21,28,27,23,28,27,22,26,25)

> x_indice_pluv

> nx <- length(x_indice_pluv)

> nx

> sy <- sum (y_prod_leite)

> sy

> sx <- sum (x_indice_pluv)

> sx

> sxy <- sum (x_indice_pluv * y_prod_leite)

> sxy

> sxx <- sum (x_indice_pluv^2)

48
PRÁTICAS │ UNIDADE II

> sxx

> sqxy <- (sxy - (sx*sy)/nx)

> sqxy

> sqx <- (sxx – sxx^2/nx)

> sqx

> b <- sqxy/sqx

>b

> a <- (sy/ny) - b * (sx/nx)

>a

> plot (y_prod_leite ~ x_indice_pluv)

> modLn <- lm ( y_prod_leite ~ x_indice_pluv)

> modLn

> abline (modLn)

De acordo com o modelo encontrado, qual seria a produção de leite em 2015


para um índice pluviométrico de 26 mm?

R-6: Calcule a equação da regressão linear e o coeficiente de determinação (R2)


entre todas as variáveis em relação à área. Utilize, organizadamente, apenas um
Script do R que contenha todos os procedimentos.

Tabela 6. Elementos.

Área Condutividade Nitrogênio Perímetro Turbidez


ua1 0.16 28.55 315.4 4.83 16.47
ua2 0.09 41.45 455.7 2.17 26.65
ua3 0.24 38.7 525.2 6.32 20.75
ua4 0.28 56 221.2 4.79 26.9
ua5 0.88 5.67 280.0 23.42 19345
ua6 0.13 48.55 546.5 2.93 15.23
ua7 0.39 42.5 399.8 5.52 16265
ua8 1.42 35.1 398.1 18.23 22.35
ua9 1.87 29.15 333.7 20.09 13035
ua10 0.37 32.75 430.5 7.96 21

49
UNIDADE II │ PRÁTICAS

Figura 15.

Fonte: Autor.

Respostas: (Completar a Tabela 7)

Tabela 7. Resposta.

Par R2 Equação

1 Área x Cond 0.1748613 y= 41.27382 - 9.317015x

2 Área x N 0.09355446 y= 421.0773 – 52.25947x

3 Área x Perim 0.748253 y= 3171167 + 11.07175x

4 Área x Turb

5 Cond x N

6 Cond x Perim

7 Cond x Turb

8 N x Perim

9 N x Turb

10 Perim x Turb

Fonte: Autor.

Obs.: ajuda, para relembrar: como abrir tabelas no Sistema R.

> variável <- read.table (file.choose(), header=T)

> variável

Obs.: a tabela 5 pode ser aberta no Sistema R através de um arquivo TXT (usando o
Bloco de Notas ou Notepad++)

O comando lm é o verdadeiro demônio de Laplace.

50
PRÁTICAS │ UNIDADE II

SCRIPT R-08

> Elementos <- read.table (file.choose(), header=T)

> Elementos

> fit1<-lm(Condutividade~Área,Elementos)

> fit1

> fit2<-lm(Nitrogênio~Área,Elementos)

> fit2

Obs.: explorar:

> fit3<-lm(Nitrogênio~Área+Perímetro,Elementos)

> fit3

> anova1<-aov(fit3)

> anova1

Tabela 8. Galápagos.

Ilha
SPE SPE Dist. Sta Dist. Ilha
Id Coord_E Coord_N Ilhas Elevação Área Mais
Total Nativas Cruz Adjacente
Prox.
1 803690.69 9950405.32 Baltra 58 23 0 25.09 0.6 0.6 1.84
2 772991.66 9968578.24 Bartolome 31 21 109 1.24 0.6 26.3 572.33
3 796228.87 9855436.65 Caldwell 3 3 114 0.21 2.8 58.7 0.78
4 790950.53 9863052.31 Champion 25 9 46 0.1 1.9 47.4 0.18
5 802919.23 9916020.39 Coamano 2 1 0 0.05 1.9 1.9 903.82

6 792540.55 9953217.19 Daphne 18 11 119 0.34 8 8 1.84


Major
7 794810.16 9956292.13 Daphne 24 0 93 0.08 6 12 0.34
Minor
8 610911.88 185499.07 Darwin 10 7 168 2.33 34.1 290.2 2.85
9 775393.13 9943131.27 Eden Fawkes 8 4 0 0.03 0.4 0.4 17.95
10 793512.44 9863728.10 Enderby 2 2 112 0.18 2.6 50.2 0.1

11 202856.26 9847577.72 Espanola_16 97 26 198 58.27 1.1 88.3 0.57

12 664033.07 9956361.03 Fernandinha 93 35 1494 634.49 4.3 95.3 4669.32

13 205911.06 9851409.99 Gardner_E 58 17 49 0.57 1.1 93.1 58.27

14 801043.94 9852504.69 Gardner_S 5 4 227 0.78 4.6 62.2 0.21

51
UNIDADE II │ PRÁTICAS

Ilha
SPE SPE Dist. Sta Dist. Ilha
Id Coord_E Coord_N Ilhas Elevação Área Mais
Total Nativas Cruz Adjacente
Prox.
15 171012.73 35653.17 Genovesa 40 19 76 17.35 47.4 92.2 129.49

16 714631.56 9941988.66 Isabela 347 89 1707 4669.32 0.7 28.1 634.49

17 781146.64 37194.27 Marchena 51 23 343 129.49 29.1 8

19 750034.55 64786.28 Pinta 104 37 777 59.56 29.1 119.6 129.49

20 759971.90 9932799.73 Pinzon 108 33 458 17.95 10.7 10.7 0.03

21 815922.25 9935593.71 Las Plazas 12 9 0 0.23 0.5 0.6 25.09

22 755093.43 9954353.41 Rabida 70 30 367 4.89 4.4 24.4 572.33

23 231176.47 9909148.28 San_ 280 65 716 551.62 45.2 66.6 0.57


Critóbal_16
24 756007.40 9969033.63 San Salvador 237 81 906 572.33 0.2 19.8 4.89
Santiago
25 797360.06 9929387.74 Santa Cruz 444 95 864 903.82 0.6 0 0.52

26 827253.84 9909488.12 Santa Fe 62 28 259 24.08 16.5 16.5 0.52

27 786088.04 9857069.81 Santa Maria 285 73 640 170.92 2.6 49.2 0.1
Floreana
28 802343.92 9956400.39 Seymour 44 16 0 1.84 0.6 9.6 25.09

29 736678.65 9887874.48 Tortunga 16 8 186 1.24 6.8 50.9 17.95

30 631943.71 152780.09 Wolf 21 12 253 2.85 34.1 254.7 2.33


Fonte: Rogerson, 2010.

O comando lm é o verdadeiro demônio de Laplace.

SCRIPT R-09

> Galapagos <- read.table (file.choose(), header=T)

> Galapagos

> fit1<-lm(SPE_Total~Area,Galapagos)

> fit1

> anova1<-aov(fit1)

> anova1

> fit2<-lm(SPE_Nativas~Area+Elevacao+Ilha_Mais_Prox,Galapagos)

> fit2

> anova2<-aov(fit2)

52
PRÁTICAS │ UNIDADE II

> anova2

> fit3<-lm(SPE_Nativas~Elevacao,Galapagos)

> fit3

> anova3<- aov(fit3)

> anova3

Exercício R-7: Qual dos modelos: fit1, fit2, fit3, escolher? Vamos discutir o resultado.

Tabela 9. Peso específico.

PE (Y) Quarto (X1) Cor(X2) Feldspato(X3) Coord E-W(X4) Coord N-S(X5)


1 2.63 21.30 5.50 73.00 6.09 0.92
2 2.64 38.90 2.70 57.40 3.62 1.15
3 2.64 26.10 11.10 62.60 6.75 1.16
4 2.63 29.30 6.00 63.60 3.01 1.30
5 2.64 24.50 6.60 69.10 7.40 1.40
6 2.61 30.90 3.30 65.10 8.63 1.59
7 2.63 27.90 1.90 69.10 4.22 1.75
8 2.63 22.80 1.20 76.00 2.42 1.82
9 2.65 20.10 5.60 74.10 8.84 1.83
10 2.69 16.40 21.30 61.70 10.92 1.86
11 2.67 15.00 18.90 65.60 14.22 2.01
12 2.83 0.60 35.90 62.50 10.60 2.04
13 2.70 18.40 16.60 64.90 8.32 2.05
14 2.68 19.50 14.20 65.40 8.06 2.21
15 2.62 34.40 4.60 60.70 2.73 2.27
16 2.63 26.90 8.60 63.60 3.50 2.53
17 2.61 28.70 5.50 65.80 7.44 2.62
18 2.62 28.50 3.90 67.80 5.06 3.03
19 2.61 38.40 3.00 57.60 5.42 3.06
20 2.63 28.10 12.90 59.00 12.50 3.07
21 2.63 37.40 3.50 57.60 12.13 3.12
22 2.78 0.90 22.90 74.40 15.40 3.40
23 2.76 8.80 34.90 55.40 9.91 3.52
24 2.63 16.20 5.50 77.60 11.52 3.61
25 2.74 2.20 28.40 69.30 16.40 4.22
26 2.64 29.10 5.10 65.70 11.43 4.25
27 2.70 24.90 6.90 67.80 5.91 4.94
28 2.63 36.60 3.60 56.60 1.84 5.04
29 2.71 17.10 11.30 70.90 11.76 5.06
30 2.84 0.00 47.80 52.20 16.43 5.09
31 2.68 19.90 11.60 67.20 11.33 5.24

53
UNIDADE II │ PRÁTICAS

PE (Y) Quarto (X1) Cor(X2) Feldspato(X3) Coord E-W(X4) Coord N-S(X5)


32 2.84 1.20 34.80 64.00 8.78 5.32
33 2.74 13.20 18.80 67.40 13.73 5.32
34 2.74 13.70 21.20 64.00 12.45 5.33
35 2.61 26.10 2.30 71.20 1.43 5.35
36 2.63 19.90 4.10 76.00 4.15 5.61
37 2.77 4.90 18.80 74.30 13.84 5.85
38 2.72 15.50 12.20 69.70 11.66 6.46
39 2.83 0.00 39.70 60.20 14.64 6.59
40 2.77 4.50 30.50 63.90 12.81 7.26
41 2.92 0.00 63.80 35.20 16.61 7.42
42 2.77 4.00 24.10 71.80 14.65 7.91
43 2.79 23.40 12.40 63.10 13.33 8.47
44 2.69 29.50 9.80 60.40 15.77 8.74

Fonte: Ladim, 2003.

A análise de variância é utilizada quando se quer decidir se as diferenças amostrais


observadas são reais (causadas por diferenças significativas nas populações
observadas) ou casuais (decorrentes da mera variabilidade amostral). Portanto,
essa análise parte do pressuposto que o acaso só produz pequenos desvios,
sendo as grandes diferenças geradas por causas reais.

Esse é um experimento que você mesmo pode fazer: Vamos escolher, por exemplo,
três caminhos para ir para o trabalho e cronometrar, cada dia, aleatoriamente, para
eliminar outros fatores indesejáveis, o tempo de percurso. Uma análise da variância
seria interessante para abordar o problema. Mas aí você vai me perguntar o que isso
tem haver com georreferenciamento de imóveis rurais? Vou lhe responder que esse
exercício é exatamente o mesmo de analisar o tempo de percurso entre um, ou vários
satélites, até um, ou vários receptores, em terra. Existem vários efeitos como, por
exemplo, o multicaminhamento, que atrasa a chegada do sinal, e claro, vai aumentar
o valor da distância e, consequentemente, provocar o erro no posicionamento. Então,
o melhor procedimento, é que esse, ou esses, satélites sejam eliminados antes do
processamento.

Tabela 10. Ensaio.

Ensaio Saída Dia Percurso Tempo


1 1 10:55:00 Segunda 3 18.3
2 2 11:20:00 Quarta 3 18.9
3 3 10:40:00 Sexta 2 10.9
4 4 11:25:00 Segunda 3 20.7
5 5 12:50:00 Sexta 2 11.4
6 6 11:30:00 Quarta 3 22.9

54
PRÁTICAS │ UNIDADE II

Ensaio Saída Dia Percurso Tempo


7 7 11:25:00 Quarta 2 12.1
8 8 07:35:00 Terça 1 12.8
9 9 08:10:00 Segunda 3 56.3
10 10 07:00:00 Terça 1 13.3
11 11 08:10:00 Quinta 2 10.9
12 12 17:00:00 Sexta 1 13.1
13 13 15:00:00 Quarta 1 12.7
14 14 12:30:00 Segunda 3 20.6
15 15 07:30:00 Terça 3 18.6
16 16 12:30:00 Quarta 2 11.0
17 17 08:15:00 Sexta 2 10.3
18 18 07:05:00 Quinta 1 13.0
19 19 12:50:00 Segunda 3 18.6
20 20 07:35:00 Terça 1 13.0
21 21 08:00:00 Quinta 2 10.6
22 22 09:20:00 Quarta 2 10.4
23 23 07:15:00 Quinta 3 21.5
24 24 08:15:00 Sexta 2 10.9
25 25 08:40:00 Segunda 2 10.9
26 26 08:40:00 Quarta 2 11.0
27 27 09:00:00 sexta 3 19.1
28 28 10:00:00 Quarta 3 16.1
29 29 09:10:00 Sexta 2 12.1
30 30 09:15:00 Quarta 3 18.1
31 31 11:15:00 Segunda 2 12.2
32 32 14:30:00 Sexta 3 19.2

Fonte: Neto, 2010.

Analisando os dados da tabela Ensaio, e usando o Script a seguir, pergunta-se


qual trajeto, ou satélite, que você já eliminaria antes de começar a processar os
dados?

SCRIPT R-10

> ensaio <- read.table (file.choose(), header=T)

> ensaio

> leitura<-ensaio[,1]

> leitura

> tempo<-ensaio[,5]

> tempo

> plot(leitura, tempo)

55
UNIDADE II │ PRÁTICAS

> percurso<-ensaio[,4]

> percurso

> per.f<-factor(percurso)

> per.f

> table(per.f )

> plot(per.f,tempo)

Série de Taylor
A série de Taylor nos proporciona o valor de uma função f(x) quando x=0.

Ela pode ser escrita nessa forma:

f(0) = f(0) + f’(0)/1! x + f’’(0)/2! x2 + f’’’(0)/3! x3 + f’’’’(0)/4! x4 + …

A expansão em série de Taylor serve para linearizar as funções, pois para valores de x
próximos da segunda potência, que serve para muitos casos práticos, podemos truncar
ou descartar os valores superiores, e nesse caso, a curva f(x) poderá ser substituída por
uma resta:

f(x) = f(a) + f’(a) (x-a)

Ou na forma matricial F(X) = F(X0) + dF/dX|X0 ΔX

Figura 16.

Fonte: Autor.

56
PRÁTICAS │ UNIDADE II

Assista aos vídeos no YouTube: <https://youtu.be/5KRNo8Ji9Y0> e <https://


youtu.be/0dqWoZs3erM>

Vamos escrever a função seno na sua forma expandida da série de Taylor:

Seno(x) = x – x3/6 + x5/120 – x7/5040….

Agora tente testar o Script:

> x<-c(1:100)

>x

> y<-sin(x)

>y

> plot(x,y,col=’blue’, pch=20)

> y<-x-x^3/6 ##################### Função seno em série de Taylor

>y

> plot(x,y,col=’blue’, pch=20)

Observe que a partir do valor 5 (cinco) os dados começam a divergir, o que podemos
fazer? Acrescentar mais termos a série? E é exatamente isso que uma calculadora faz,
ou usa, para calcular valores de seno, cosseno, pi, exponencial etc.

Tabela 11.

Valores Seno Série Erro


0 0,000 0,000 0,000
1 0,841 0,841 0,000
2 0,909 0,908 0,001
3 0,141 0,091 0,050
4 -0,757 -1,384 0,627
5 -0959 -5,293 4,334
6 -0,279 -20,743 20,463
Fonte: Autor.

57
UNIDADE II │ PRÁTICAS

Funções trigonométricas nos Sistema R

> sin(.5*pi)

> cos(2*pi)

> tan(pi)

> atan(0)

Propagação do erro
O volume de um cilindro pode ser determinado medindo-se o comprimento L e o raio
R. Ou seja, um problema estocástico.

Em teoria probabilística, o padrão estocástico é aquele cujo estado é indeterminado, com


origem em eventos aleatórios. Por exemplo, o lançar de um dado resulta num processo
estocástico, pois qualquer uma das seis faces do dado tem iguais probabilidades de ficar
para cima após o arremesso. Assim, qualquer sistema ou processo analisado usando a
teoria probabilística é estocástico, ao menos em parte. (DEBASTIANI, 2008)

No, entanto, o volume V é calculado por uma fórmula matemática:

V = πLR2

Uma vez que R e L tenham erros experimentais ou de mensuração, é evidente que o


volume V também terá, pois ele é calculado em função ou a partir de R e L.

Portanto, a relação entre as incertezas será dada pela Lei da Propagação dos Erros:

2
 ∂V  2  ∂V  2
S v= 
2
 S L+ S R
 ∂L   ∂R 
Calculando as derivadas parciais,

∂V/∂L = πR2

∂V/∂R = πL(2R)

Obtém-se

S2v = (πR2)2 S2L + (2πLR)2 S2R

58
PRÁTICAS │ UNIDADE II

Introdução à probabilidade

Experimentos aleatórios

Segundo Mendes (2013), um experimento aleatório consiste em um procedimento


que pode ser repetido diversas vezes, sob as mesmas condições de observação, mas
que cujos resultados não serão essencialmente os mesmos em todas as repetições. Um
exemplo simples pode ser o jogo de dados ou de uma moeda.

Espaço amostral

O espaço amostral (S) consiste no conjunto de todos os resultados possíveis para um


experimento aleatório.

Exemplo:

Jogo de dados de seis (6) faces

(1,2,3, … 6) ou (1 e 2 e 3…. e 6)

Moedas

(Cara, coroa) ou (cara e coroa)

Evento

É o resultado, evento (E) observado num espaço amostral (S) aleatório.

Jogo de dados

(1 ou 2 ou 3…. ou 6)

Moedas

(Cara ou coroa)

Probabilidade

É o evento (E) observado sobre o espaço amostral (S)

P = E/S

59
UNIDADE II │ PRÁTICAS

A probabilidade também pode ser calculada em função da frequência e da ocorrência


de eventos, por exemplo:

Um motor falha a cada 1000 partidas.

P=1/1000

Brincado de cara ou coroa


A probabilidade de sair cara ou coroa em um experimento aleatório é P = 1/2, ou seja, a
cada cem jogadas existe a chance ou probabilidade sair 50 caras e 50 coroas, mas como
todos os tipos de medições são sempre acometidas de erros aleatórios isso na prática
não acontece.

Experimento

Jogar uma moeda 10 vezes e comparar a medição com a probabilidade:

Probabilidade de cara = 5

Probabilidade de coroa = 5

Medição

Ocorrência de cara = 6

Ocorrência de coroa = 4

Erro aleatório

Cara (P) – Cara (O) = - 1

Coroa (P) – Coroa (O) = 1

O padrão de comportamento do erro aleatório, ou distribuição, é sempre + 1 e-1, que


podemos chamar de + n – p

Em termos matemáticos:

f(x) + n – p = r

60
PRÁTICAS │ UNIDADE II

Figura 17.

Fonte: Adaptado de Romero, 1993.

Síntese matemática 1

Descobrindo a melhor função (a função erro) para o ajustamento do fenômeno,


usando o MMQ:

M(5) − n₁(6) = e₁

M(5) − n₂(4) = e₂

….

M( ) − nn( ) = en

Segue:

∑e² = ∑ e1² + e2² + … + en² = min

∑e² = ∑ (M – n1)² + (M – n2)² + … + (M − nn)² = min

Derivando

d∑e² ∕dM = 0

d∑e² ∕dM = 2(M – n1).1 + 2(M – n2).1 + … + 2(M − nn).1 = 0

Resulta

(M − n₁) + (M − n₂) + … + (M − nn) = 0

nM - (n₁ + n₂ + … + nn) = 0

O resultado é a Média Aritmética, um estimador não tendencioso, que de acordo


com MMQ minimiza a soma dos resíduos ao quadrado.

M = (n₁ + n₂ + … + nn) / n

A média ponderada também pode ser derivada do jogo de moedas.

61
UNIDADE II │ PRÁTICAS

Síntese matemática 2

Derivar para a média ponderada para o ajustamento do fenômeno, usando o


MMQ:

w1(M(5) − n₁(6)) = w1e₁

w2(M(5) − n₂(4)) = w2e₂

….

wn(M( ) − nn( )) = wnen

Segue

∑e² = ∑ w1e1² + w2e2² + … + wnen² = min

∑e² = ∑ w1(M – n1)² + w2(M – n2)² + … + wn(M − nn)² = min

Derivando

d∑e² ∕dM = 0

d∑e² ∕dM = 2w1(M – n1).1 + 2w2(M – n2).1 + … + 2wn(M − nn).1 = 0

Resulta

(w1M − w1n₁) + (w2M − w2n₂) + … + (wnM − wnnn) = 0

(w1 + w2 +…. + wn) M - (w1n₁ + w2 n₂ + … + wnnn) = 0

O resultado é a Média Pondera, mais um estimador não tendencioso, que de


acordo com MMQ minimiza a soma dos resíduos ao quadrado.

M = (w1n₁ + w2 n₂ + … + wnnn) / (w1 + w2 +….+ wn)

A média ponderada também pode ter diversos outros pesos.

M = (w1w1n₁ + w2w2 n₂ + … + wnwnnn) / (w1w1 + w2w2 +….+ wnwn)

O exemplo de áreas de vendas e centro de abastecimento pode ser remodelado por


pensamento lateral como bairros e postos de saúde, escolas, ou Unidades de Polícia
Pacificadora – UPPs etc.

62
PRÁTICAS │ UNIDADE II

A tabela a seguir apresenta a demanda diária de cada loja em termos de caminhão/


dia e, ainda, de acordo com critérios que não serão discutidos, os pesos relativos da
importância estratégica de cada loja.

Tabela 12.

Loja Bairro Representação Econômica Peso Importância


L1 Centro 09 caminhões/dia 7
L2 Águas Claras 07 caminhões/dia 5
L3 Riacho Fundo 05 caminhões/dia 2
L4 Asa Sul 12 caminhões/dia 2
L5 Asa Norte 08 caminhões/dia 5
L6 Palmeiras 15 caminhões/dia 6
L7 Vila Planalto 11 caminhões/dia 7
Fonte: Autor.

Cabe ao analista de geoprocessamento localizar o ponto ótimo ou o mais próximo


possível do ideal, onde será construído o novo centro de abastecimento.

»» solicitar um arquivo DXF ou criar o próprio mapa usando o DraftSight;

»» o próximo passo é transformar o arquivo DXF em ShapeFile usando o


QGIS;

»» o próximo passo é processar o centroide (achar as coordenadas) de cada


área de vendas, pois vamos supor que cada loja fica exatamente no centro
de cada área de vendas;

»» finalmente usando Média Ponderada poderemos calcular as coordenadas


do novo centro de vendas e, finalmente, poder plotar no mapa o local
sugerido;

»» todos os passos podem ser feitos no Sistema Estatístico R.

Exemplo tirado do livro Conhecendo o R, uma visão mais que Estatística (Mello, 2013).

Agora, supomos que haja um conjunto de sete cidades (ou sete bairros etc.) (aqui
nomeadas de A a G) e suas coordenadas planas (x e y). Assim, cada cidade pode ser
identificada individualmente, veja:

> x <- c(2,3,4,5,6,7, 9)

> y <- c(15, 46, 56, 15, 81, 11, 25)

> nomes <- LETTERS[1:7]

> nomes

63
UNIDADE II │ PRÁTICAS

> cidades <- data.frame (x,y, row.names=nomes)

> cidades

> plot(cidades)

Pacotes do R

O R é um programa leve (ocupa pouco espaço e memória) e geralmente roda


rápido, até em computadores não muito bons. Isso porque ao instalarmos o R
apenas as configurações mínimas para seu funcionamento básico são instaladas
(o pacote base). Para realizar tarefas mais complicadas pode ser necessário
instalar pacotes adicionais (packages).

Caso o mesmo experimento seja repetido com dois dados ou mais, em vez de moedas,
será possível perceber que o erro se aproxima de uma curva com distribuição normal,
ou seja, segue o traçado da curva de sino ou Gauss.

Figura 18. Curva de Gauss.

Fonte: Autor.

A curva de Gauss depende apenas de dois parâmetros: média e desvio padrão.

Figura 19.

Fonte: Autor.

Onde μ é média e σ é o desvio padrão.


64
PRÁTICAS │ UNIDADE II

Método das direções (série de leituras)


Consiste nas medições angulares horizontais com visadas das direções determinantes
nas duas posições de medição permitidas pelo teodolito (direta e inversa), a partir de
uma direção tomada como origem, que ocupa diferentes posições no limbo horizontal
do teodolito. As observações de uma direção, nas posições direta e inversa do teodolito,
chamam-se leituras conjugadas. Uma série de leituras conjugadas consiste na
observação sucessiva das direções, a partir da direção origem, fazendo-se o giro de ida
na posição direta da luneta e de volta na posição inversa, ou vice-versa, terminando
na última direção e iniciando-se, aí, a volta sem fechar o giro. O intervalo, medido no
limbo horizontal do teodolito, entre as posições da direção origem neste limbo, chama-
se intervalo de reiteração. Assim, para observação de “n” séries de leituras conjugadas
pelo método das direções, o intervalo de reiteração deve ser 180°/n. Como exemplo,
se forem três séries de leituras conjugadas, o intervalo de reiteração deve ser 180°/3
= 60°, e a direção origem deve ocupar, no limbo horizontal do teodolito, posições nas
proximidades de 0°, 60° e 120°. Os valores dos ângulos medidos pelo método das
direções são as médias aritméticas dos seus valores obtidos nas diversas séries. (NBR
13133, 1994)

Calcular a média e o desvio padrão da série de leitura para cada alinhamento


(lembrando que os ângulos devem ser transformados para ângulos decimais):

Tabela 13.

Ângulos Horizontais (GMS)


Al Ah Ahr Ahn Ahrn Ahm S
F4_F0_F1 249° 13’05” 249° 13’05” 249° 13’00” 249° 13’05”
F0_F1_F2 302° 31’15” 302° 31’15” 302° 31’25” 302° 31’20”
F1_F2_F3 211° 41’00” 211° 41’20” 211° 41’10” 211° 41’10”
F2_F3_F4 246° 03’10” 246° 03’04” 246° 03’05” 246° 03’15”
F3_F4_F0 250° 31’10” 250° 31’00” 250° 31’15” 250° 31’05”
F0_F1_A5 186° 51’20” 186° 51’10 186° 51’20” 186° 51’15”
F1_A5_A6 291° 05’00” 291° 05’25” 291° 05’00” 291° 04’50”
A5_A6_A7 218° 53’45” 218° 54’00” 218° 53’55” 218° 54’00”
A6_A7_F2 261° 59’15” 261° 59’20” 261° 58’45” 261° 58’50”
A7_F2_F3 95° 23’15” 95° 23’15” 95° 23’20” 95° 23’20”
Fonte: autor.

Dos pontos F0 a F4 forma-se uma poligonal fechada.

Quando você tem o ângulo no formato G/M/S, 25º10’30”, e deseja transformá-lo


para o formato decimal, basta seguir a sequência descrita a seguir:

65
UNIDADE II │ PRÁTICAS

1o Pega o valor 30 e divide por 60, somando o resultado com os minutos:

30 / 60 = 0,5 - depois somando com os minutos: 0,5 + 10 = 10,5.

2 o Pega os minutos recém-obtidos, divide novamente por 60 e soma com o grau:

10,5 / 60 = 0,175 - somando com o grau: 0,175 + 25 = 25,175. Resultado = 25,175º

Segue um Script em R:

> # 25º10’30”

> x<-c(25,10,30)

>x

> x1<-x[3]

> x1

> x1<-x1/60

> x1

> x2<-x[2]

> x2

> x3<-x1+x2

> x3

> x3<-x3/60

> x3

> x4<-x[1]

> x4

> x5<-x4+x3

> x5

Exemplo: analisar os comados a seguir e usá-los para transformar o ângulo


decimal 25,175º, novamente em G/M/S.

66
PRÁTICAS │ UNIDADE II

Segue um Script em R:

> x<-c(5.25,6.48,16.35,20.85,2.9

>x

> x1<- round(x)

> x1

> x2<-trunc(x)

> x2

> x3<-signif(x)

> x3

Calcular a média e o desvio padrão da série de leitura para cada alinhamento e


fazer uma análise sobre a possível ocorrência de erros grosseiros.

Tabela 14.

Distância Inclinada (m)


Al Di_1 Di_2 Di_3 Di_4 Dim S
F0_F1 204,6830 204,6880 204,6849 204,6840
F1_F0 204,6880 204,6830 204,6860 204,6870
F1_F2 158,6270 158,6360 158,6360 158,6360
F2_F1 158,6260 158,6270 158,6260 158,6260
F2_F3 100,4730 100,4740 100,4700 100,4740
F3_F2 100,4640 100,4630 100,4630 100,4620
F3_F4 95,5600 95,5610 95,5640 45,5690
F4_F3 95,5710 95,5730 95,5760 95,5720
F4_F0 123,7050 123,7060 123,7070 123,7060
F0_F4 123,7040 123,7030 123,7030 126,7030

Fonte: Autor.

Obs.: dos pontos F0 a F4 forma-se uma poligonal fechada.

Regressão linear de forma matricial


Utilizamos este método quando temos uma distribuição de pontos e queremos ajustar
a melhor curva a este conjunto de dados.
67
UNIDADE II │ PRÁTICAS

Discussão de sistemas de equações lineares

De um modo geral e simplificado, pode-se discutir algebricamente um sistema de


equações lineares não homogêneas, procurando responder a duas questões que seguem:
(DALMOLIN, 2004)

»» O sistema é consistente?

»» Sendo consistente, a solução é única?

Seja o sistema de equações:

AX=L

Onde A é a matriz nxn dos coeficientes; X é o vetor das incógnitas e L o vetor dos termos
independentes.

Para este sistema a questão (a) pode ser respondida através de uma análise das
características ou postos das matrizes A e A’, isto é:

Posto(A) = Posto(A’)=?

Onde A’ é uma matriz obtida da A pela substituição de uma de suas colunas pelo
vetor L.

Se Posto(A) ≠ Posto(A’) o sistema é incompatível ou inconsistente, caso contrário, ou se


a igualdade se verificar Posto(A) = Posto(A’), o sistema será consistente.

A segunda questão (que se aplica somente ao sistema compatível ou consistente) será


respondida exatamente examinando determinante de A.

det(A) ≠ 0

Então o sistema terá solução única. Determinante nulo implica que o sistema possui
infinitas soluções. (DALMOLIN, 2004)

Ajustamento paramétrico

O modelo matemático do ajustamento paramétrico (também chamado modelo explícito


ou método de observações diretas ou ainda método das equações de observações) é:
(DALMOLIN, 2004)

La = F(Xa)

68
PRÁTICAS │ UNIDADE II

Onde La é o vetor (nx1) das observações ajustadas, Xa o vetor (ux1) dos parâmetros
ajustados e F um funcional que relaciona La a Xa.

Conforme a função F seja linear ou não linear, o ajustamento se chamará de: paramétrico
linear ou não linear. Consideraremos inicialmente o primeiro caso.

Ajustamento paramétrico linear

Neste caso a função F é linear e a equação La = F(Xa) pode ser escrita na forma:

L=AX

Onde o sistema de equações lineares é superabundante (n>u) com A (nxu)

Um sistema consistente não pode ser formado inicialmente, pois o verto La não está
disponível. Isto é, dispomos somente do vetor Lb, dos valores medidos, que forma um
sistema inconsistente.

Lb = AX

Que requer uma correção V (função erro) ao vetor das medidas Lb. Assim:

La = Lb + V

AX= Lb + V

Constitui um sistema compatível, mas com maior número de incógnitas que o número
n de equações (Xa e V possuem u + n incógnitas).

Recorre-se então ao princípio do Método dos Mínimos Quadrados MMQ E = VTV =


mínimo, (Quando é ponderada é VTWV) para se obter uma solução única do sistema:

AX = Lb + V.

Considerando a solução quando se utiliza a equação:

VTV = mínimo ou VTWV

Temos toda a equação,

V = AX – Lb

Que substituído na equação La = Lb + V, e designado por E, resulta:

69
UNIDADE II │ PRÁTICAS

E = (AX – Lb)T (AX-Lb) = mínimo

Ou

E = (ATXT-LTb) . (AX-Lb) = mínimo

E efetuando a distribuição tem-se:

E = XT AT AX – XT AT Lb – LtbAX+LTbL

Para minimizar a função, faz-se:

E∂ /∂x =0 (∂ = derivada parcial)

Ou seja:

E∂/∂x = 2XTATA-LTbA -LTbA=0

Então:

= XTATA-LTbA=0

e:

XTATA = LTbA

Transportando ambos os membros:

ATAX =ATLb

Que é chamada de Equação Normal e cuja solução é:

X =(ATA)-1ATLb

Admitindo ATA não singular.

Ax = L => x = (AtA)-1At L ou Ax = B => x = (AtA)-1At B

Trabalhando com matrizes no Sistema R


Por vezes poderemos estar interessados em armazenar a nossa informação em
estruturas de dados com mais do que uma dimensão (o que não é o caso dos vetores).
As matrizes arranjam a informação em duas dimensões. No R, as matrizes não são
mais do que vetores com uma propriedade especial que é a dimensão. Vejamos um
exemplo.

70
PRÁTICAS │ UNIDADE II

Como criar matrizes

Suponha que temos doze números correspondentes às vendas trimestrais durante o


último ano em três lojas. As instruções seguintes permitem “organizar” esses números
como uma matriz:

> vendas <- c(45, 23, 66, 77, 33, 44, 56, 12, 78, 23, 78, 90)

> vendas

[1] 45 23 66 77 33 44 56 12 78 23 78 90

> dim(vendas) <- c(3, 4)

> vendas

[,1] [,2] [,3] [,4]

[1,] 45 77 56 23

[2,] 23 33 12 78

[3,] 66 44 78 90

Repare como os números foram “espalhados” por uma matriz com três linhas e quatro
colunas, que foi a dimensão que atribuímos ao vetor vendas através da função dim().
Na realidade seria mais simples criar a matriz usando uma função específica para isso:

> vendas <- matrix(c(45, 23, 66, 77, 33, 44, 56, 12, 78, 23, 78, 90), 3, 4)

Repare que os números foram “espalhados” pela matriz por coluna, isto é, primeiro
foi preenchida a primeira coluna, depois a segunda etc. Caso não seja isso o que
pretendemos, poderemos preencher a matriz por linhas da seguinte forma:

> vendas <- matrix(c(45, 23, 66, 77, 33, 44, 56, 12, 78, 23, 78, 90), 3, 4, byrow = T)

> vendas

[,1] [,2] [,3] [,4]

[1,] 45 23 66 77

[2,] 33 44 56 12

[3,] 78 23 78 90

71
UNIDADE II │ PRÁTICAS

Nas matrizes também é possível dar nomes aos elementos para tornar a leitura da
informação mais legível. Vejamos como fazer isso para a nossa matriz de vendas
trimestrais nas três lojas:

> rownames(vendas) <- c(“loja1”, “loja2”, “loja3”)

> colnames(vendas) <- c(“1.trim”, “2.trim”, “3.trim”, “4.trim”)

> vendas

1.trim 2.trim 3.trim 4.trim

loja1 45 23 66 77

loja2 33 44 56 12

loja3 78 23 78 90

Como acessar aos elementos da matriz


Como a visualização das matrizes sugere, podemos acessar aos elementos individuais
das matrizes usando um esquema de indexação semelhante ao dos vetores, mas desta
vez com dois índices (as dimensões da matriz).

> vendas[2, 2]

[1] 44

Ou então, tirando partido dos nomes:

> vendas[“loja2”, “2.trim”]

[1] 44

De igual modo, podemos tirar partido dos esquemas de indexação para selecionar
elementos das matrizes, como mostram os seguintes exemplos:

> vendas[-2, 2]

loja1 loja3

23 23

> vendas[1, -c(2, 4)]

1.trim 3.trim

45 66
72
PRÁTICAS │ UNIDADE II

Podemos mesmo omitir uma das dimensões das matrizes para deste modo obter todos
os seus elementos (um índice vazio):

> vendas[1, ]

1.trim 2.trim 3.trim 4.trim

45 23 66 77

> vendas[, “4.trim”]

loja1 loja2 loja3

77 12 90

As funções cbind() e rbind() podem ser usadas para juntar dois ou mais vetores ou
matrizes, por colunas ou por linhas, respectivamente. Os seguintes exemplos ilustram
o seu uso:

> m1 <- matrix(c(45, 23, 66, 77, 33, 44, 56, 12, 78, 23), 2, 5)

> m1

[,1] [,2] [,3] [,4] [,5]

[1,] 45 66 33 56 78

[2,] 23 77 44 12 23

> cbind(c(4, 76), m1[, 4])

[,1] [,2]

[1,] 4 56

[2,] 76 12

> m2 <- matrix(rep(10, 50), 10, 5)

> m2

[,1] [,2] [,3] [,4] [,5]

[1,] 10 10 10 10 10

[2,] 10 10 10 10 10

73
UNIDADE II │ PRÁTICAS

[3,] 10 10 10 10 10

[4,] 10 10 10 10 10

[5,] 10 10 10 10 10

[6,] 10 10 10 10 10

[7,] 10 10 10 10 10

[8,] 10 10 10 10 10

[9,] 10 10 10 10 10

[10,] 10 10 10 10 10

> m3 <- rbind(m1[1, ], m2[5, ])

> m3

[,1] [,2] [,3] [,4] [,5]

[1,] 45 66 33 56 78

[2,] 10 10 10 10 10

Regras aritméticas

As regras aritméticas e de reciclagem que estudamos anteriormente, também se aplicam


às matrizes. Vejamos uns pequenos exemplos:

> m <- matrix(c(45, 23, 66, 77, 33, 44, 56, 12, 78, 23), 2, 5)

>m

[,1] [,2] [,3] [,4] [,5]

[1,] 45 66 33 56 78

[2,] 23 77 44 12 23

>m*3

[,1] [,2] [,3] [,4] [,5]

[1,] 135 198 99 168 234

74
PRÁTICAS │ UNIDADE II

[2,] 69 231 132 36 69

> m1 <- matrix(c(45, 23, 66, 77, 33, 44), 2, 3)

> m1

[,1] [,2] [,3]

[1,] 45 66 33

[2,] 23 77 44

> m2 <- matrix(c(12, 65, 32, 7, 4, 78), 2, 3)

> m2

[,1] [,2] [,3]

[1,] 12 32 4

[2,] 65 7 78

> m1 + m2

[,1] [,2] [,3]

[1,] 57 98 37

[2,] 88 84 122

Multiplicação matricial, transposta,


determinante e inversa
As aplicações das operações com matrizes (como no exemplo “m*3” apresentado
anteriormente) funciona elemento a elemento como no caso dos vetores. Isso significa
que se um operando é menor ele é reciclado até perfazer o tamanho do maior. No
entanto, o R também possui operadores especiais para as usuais operações da álgebra
matricial.

Por exemplo, a multiplicação de duas matrizes pode ser feita da seguinte forma:

> m1 <- matrix(c(45, 23, 66, 77, 33, 44), 2, 3)

> m1

75
UNIDADE II │ PRÁTICAS

[,1] [,2] [,3]

[1,] 45 66 33

[2,] 23 77 44

> m2 <- matrix(c(5, 3, 466, 54.5, 3.2, -34), 3, 2)

> m2

[,1] [,2]

[1,] 5 54.5

[2,] 3 3.2

[3,] 466 -34.0

> m1 %*% m2

[,1] [,2]

[1,] 15801 1541.7

[2,] 20850 3.9

Atente no operador especial (%*%) para simbolizar que se trata da multiplicação


matricial e não a usual multiplicação. A multiplicação matricial tem, como é sabido,
regras especiais no que concerne, por exemplo a dimensão das matrizes envolvidas,
pelo que não poderá ser usada com quaisquer matrizes.

Ainda no contexto da álgebra matricial, o R tem muitas outras funções, a saber, a função
t() para obter a transposta de uma matriz quadrada.

> t(m1)

[,1] [,2]

[1,] 45 23

[2,] 66 77

[3,] 33 44

Ou a função det() para calcular o determinante de uma matriz:

> m <- matrix(c(34, -23, 43, 5), 2, 2)

76
PRÁTICAS │ UNIDADE II

> det(m)

[1] 1159

É também possível usar a função solve() para obter a inversa de uma matriz:

> solve(m)

[,1] [,2]

[1,] 0.004314064 -0.03710095

[2,] 0.019844694 0.02933563

Finalmente, esta mesma função pode ser usada para resolver sistemas de equações
lineares. Vejamos o seguinte sistema de equações:

−4x + 0.3y = 12.3

54.3x − 4y = 45

Podemos resolvê-lo no R da seguinte forma:

> coefs <- matrix(c(-4, 0.3, 54.3, -4), 2, 2, byrow = T)

> ys <- c(12.3, 45)

> solve(coefs, ys)

[1] 216.2069 2923.7586

SCRIPT 11 – Resolvendo o sistema linear no R

coefs <- matrix(c(-4, 0.3, 54.3, -4), 2, 2, byrow = T)

coefs

ys <- c(12.3, 45)

ys

solve(coefs, ys)
77
UNIDADE II │ PRÁTICAS

Usando o Script 11 Achar a solução de S1 no Sistema R:

21 – 39a – 11b = -21

10 – 11a – 4b = -10

coefs <- matrix(c(-39, -11,-11,-4), 2, 2, byrow = T)

coefs

ys <- c(-21,-10)

ys

solve(coefs, ys)

Qual o resultado? Confere com: f(x) = -0,742x + 4,542

Achar a solução de S1 no Sistema R de forma matricial usando MMQ: (Script 12)

– 39a – 11b = -21

– 11a – 4b = -10

Lembrar:

Ax = B => x = (At A)-1 At B

SCRIPT 12

> a <- c(-39,-11,-11,-4)

>a

> dim(a) <-c(2,2)

>a

> b<- c(-21,-10)

> dim(b)<-c(2,1)

>b

> at <- t(a)

> at

78
PRÁTICAS │ UNIDADE II

> n1<-at%*%a

> n1

> invn1<- solve(n1)

> invn1

> n2<- at%*%b

> n2

> m<-invn1%*%n2

>m

Qual o resultado? Confere com: f(x) = -0,742x + 4,542

79
CAPÍTULO 2
Ajustamento de redes geodésicas

Imagine começar um projeto enorme, que deve levar dez anos e precisar de
milhares de pessoas para construir e resolver um sistema de equações lineares
1.800.000 por 900.000. Foi exatamente isso que o National Geodetic Survey
(Levantamento Geodésico Nacional) fez em 1974, quando começou a atualizar o
North American Datum (Dados da América do Norte, NAD) – uma rede de 268.000
pontos de referência marcados com precisão, abrangendo todo o continente
norte-americano e agregando Groenlândia, o Havaí, as Ilhas Virgens, Porto Rico
e outras ilhas do Caribe. (LAY, 2013)

As latitudes e longitudes contidas no NAD têm de ser determinadas com erro de


poucos centímetros, já que formam a base de todos os levantamentos, mapas,
limites legais de propriedades e desenhos de projetos de engenharia civil, tais
como estradas e passagens de linhas de utilidade pública. Mais de 200.000
pontos foram adicionados ao antigo conjunto de medidas desde a última
atualização dos pontos de referência geodésica em 1927, e os erros foram se
acumulando gradualmente ao longo dos anos devido a medidas imprecisas e ao
movimento da crosta terrestre. O levantamento de dados para o ajuste do NAD
foi completado em 1983. (LAY, 2013)

O sistema de equações para o NAD não tinha solução no sentido usual; em


vez disso, tinha uma “solução de mínimos quadrados”, que associava latitude e
longitude a pontos de referência de maneira a corresponder o melhor possível
ao 1,8 milhão de observações. A solução de mínimos quadráticos foi encontrada
em 1986 resolvendo um sistema linear relacionado de equações normais, que
envolviam 928.735 equações em 928.735 incógnitas. (LAY, 2013)

Vamos discutir o relatório do Ajustamento da Rede Planimétrica do Sistema Geodésico


Brasileiro de julho de 1996.

O estabelecimento da Rede Planimétrica do Sistema Geodésico Brasileiro na década de


1940 foi o passo inicial para o desenvolvimento sistemático da Geodésia no Brasil. Desde
então, cadeias de triangulação se espalharam em larga escala em quase todo o território
brasileiro, dando lugar em seguida aos projetos de densificação pela poligonação e
atualmente às técnicas de posicionamento por meio do rastreio de satélites.

80
PRÁTICAS │ UNIDADE II

Verifica-se então que, desde o início da sua implantação, a Rede Planimétrica de Alta
Precisão vem sofrendo evoluções nos métodos e instrumentos utilizados na obtenção
das coordenadas planimétricas, principalmente no que diz respeito à precisão.

Atualmente a rede conta com um quantitativo de 3.498 vértices de triangulação, 1.158


estações de poligonal, 26 pontos de trilateração (HIRAN), 1.143 estações Doppler e 187
estações GPS, totalizando 6012 pontos, cujas coordenadas vêm sendo determinadas até
hoje através de vários ajustes em diferentes sistemas geodésicos.

Vamos discutir os inúmeros objetivos da Rede Brasileira de Monitoramento Contínuo


– RBMC: (FORTES et al, 1991)

»» Estabelecimento de uma rede geodésica ativa de referência para


posicionamento relativo com o GPS, para uso geral.

»» Disponibilidade de um elenco de observações de duas frequências (L1 e


L2) em todas as regiões do território nacional que permitirá a realização
de pesquisas de modelos de correção da refração ionosférica para serem
empregados por usuários que utilizarem receptores com apenas uma
frequência (L1).

»» Possibilidade de execução de cálculos de refinamento das órbitas


dos satélites GPS, bem como a integração da RBMC às demais redes
internacionais de monitoramento, como, por exemplo, a CIGNET
(Cooperative International GPS Network). A efetivação de tal intercâmbio
possibilitaria ao Brasil participar ativamente do desenvolvimento
científico e tecnológico internacional e, do ponto de vista prático, obter
precisões da ordem de 0,1 partes por milhão (ppm).

»» Estabelecimento de uma estrutura de controle altamente precisa para a


atual rede planimétrica do SGB, subsidiando a obtenção de resultados
mais refinados no projeto de ajustamento global simultâneo da rede. Esta
estrutura de controle, por sua vez, seria permanentemente refinada, em
função da contínua obtenção de novas observações nas estações.

»» Refinamento do Mapa Geoidal do Brasil, tão necessário aos serviços


de posicionamento pelo rastreamento de satélites artificiais, através do
aumento significativo de determinações relativas das ondulações geoidais
ao longo do território brasileiro.

»» No caso específico do posicionamento cinemático (navegação), a RBMC


representa um arcabouço valioso para a determinação ágil de dados

81
UNIDADE II │ PRÁTICAS

alimentadores de Sistemas de Informações Geográficas, aplicação


emergente do Sistema GPS. Além disso, a RBMC possui a potencialidade
de poder propiciar aos usuários correções diferenciais às respectivas
posições, em tempo real ou quase real. A implementação de tal recurso
dependeria, dentre outros fatores, da disponibilidade de linhas de
comunicação entre as estações da rede e os usuários.

Rede de referência cadastral

Rede de apoio básico de âmbito municipal para todos os levantamentos que se


destinem a projetos, cadastros ou implantação de obras, sendo constituída por pontos
de coordenadas planialtimétricas materializados no terreno, referenciados a uma única
origem (Sistema Geodésico Brasileiro – SGB) e a um mesmo sistema de representação
cartográfica, permitindo a amarração e consequente incorporação de todos os trabalhos
de topografia num mapeamento de referência cadastral. Compreende, em escala
hierárquica quanto à exatidão, os pontos geodésicos (de precisão e de apoio imediato),
pontos topográficos e pontos referenciadores de quadras ou glebas, todos codificados,
numerados e localizados no mapeamento de referência cadastral. (NBR 13133, 1994)

Nivelamento geométrico (ou nivelamento direto)

Nivelamento que realiza a medida da diferença de nível entre pontos do terreno por
intermédio de leituras correspondentes a visadas horizontais, obtidas com um nível,
em miras colocadas verticalmente nos referidos pontos. (NBR 13133, 1994)

Nivelamento geométrico, definições e fórmulas


básicas

»» A altura do instrumento AI: diferença de cota entre o plano horizontal,


que contém a linha de vista, e o plano de referência de cota zero.

»» Visada à ré, V Ré: toda a leitura de mira que for feita com a finalidade de
calcular AI, qualquer que seja a sua direção.

»» Visada à vante, V Vante: toda leitura de mira que for feita para determinar
a cota do ponto visado; qualquer quer que seja a direção. Portanto vante
e ré, em nivelamento geométrico, nada tem ver com a direção para frente
ou para trás.

82
PRÁTICAS │ UNIDADE II

»» Visada à vante de mudança, Vmud é a visada vante que determina a cota


de um ponto que a seguir recebe uma visa à ré.

»» Visada à vante intermediárias, Vint são todas as demais visadas à vante.

»» Cota de um ponto é a diferença de nível do plano horizontal que contém


o ponto e o plano horizontal de referência de cota zero.

Fórmulas básicas:

AI = Cota + V Ré

Cota = AI – V Vante

RN. Referência de nível é a cota de um ponto que serve de referência para um trabalho
de nivelamento geométrico. A referência de nível absoluta é o nível do mar assumido
como cota zero. Nos trabalhos de interesse particular pouco importante, pode-se
assumir uma referência arbitrária. (BORGES, 2001)

1. Calcular as cotas do nivelamento geométrico:

Tabela 15.

Estaca V Ré Al V Vante Conta


Int Mud 105,215
RN-1
0,25
2 2,841
3 3,802
4 0,857
3,711
5 0,44
6 3,123
0,398
7 2,404
8 3,816
Fonte: Borges, 1975.

Prova do cálculo:

Cota final = cota inicial + ∑ V Ré - ∑ V Mud

2. Determinar as coordenadas planas (x, y) do ponto P, a partir da media


de três distâncias de pontos conhecidos A, B e C a P. Usando o Sistema
R e os conceitos de operação matricial.

83
UNIDADE II │ PRÁTICAS

Coordenadas dos pontos conhecidos:

A=(200,00; 400,00) B=(600,00; 700,00) C=(1100,00; 300,00)

Figura 20.

Fonte: Autor.

Coordenadas aproximadas (Chute) de P: P(585,00; 112,00)

Distâncias medidas com precisão sv = 0,05 m:

Distância AP= 449,92 m

Distância BP= 600,02 m

Distância CP= 538,48 m

Figura 21.

Fonte: Autor.

84
PRÁTICAS │ UNIDADE II

Incógnitas (parâmetros):

Xa=

Observações:

Lb

Parâmetros aproximados (Poderia ser uma coordenada obtida com GPS de


navegação):

XT0 = [585,00 112,00]T = [X0 Y0]T

D = ((x – xi )2 + (y – yi)2)1/2

Ou

F1 → d1 = ((xP – xA)2 + (yP – yA)2)1/2

F2 → d2 = ((xP – xB)2 + (yP – yB)2)1/2

F3 → d3 = ((xP – xC)2 + (yP – yC)2)1/2

Modelo matemático linearizado:

AX + L = V

Onde:

Sistema de Equações normais:

Ax = B => x = (At A)-1 At Lb

Onde:

Parâmetros corrigidos:

Xa = X0 + X

Ou

Xa = X0 + ∆X

3. Vamos considerar o problema de localizar uma nova máquina-


ferramenta de uso geral em um departamento de manutenção. Cinco
máquinas atualmente localizadas no departamento têm as seguintes
localizações: P1(1,1), P2(6,2), P3(2, 8), P4(3, 6) e P5(8, 4). O custo de
unidade de distância (Peso) percorrido entre a máquina nova e cada
máquina existente é o mesmo. A quantidade de jornada (Peso) por dia
entre a máquina nova e as máquinas existentes de 1 a 5 é de 10, 20, 25,
20 e 25, respectivamente. (TOMPKINS, 2010)

85
UNIDADE II │ PRÁTICAS

Qual é a coordenada de localização da nova máquina, usando o LibreOffice Calc


e o comando Solver? (As coordenadas, aproximadas, X*a,b serão ajustadas.)

Tabela 16.

Máquina Coordenadas Diferença Absoluta Peso


i x y x-a y-b Wi
1 1 1 0 0 10
2 6 2 5 1 20
3 2 8 1 7 25
4 3 6 2 5 20
5 8 4 7 3 25

X*a,b 1 1 F(X*) 710

F10= SOMARPRODUTO(D3:D7;F3:F7)+SOMARPRODUTO(E3:E7;F3:F7)

x-a= ABS(B3-$B$10)
Y-b= ABS(C3
Fonte: Tompkins, 2010.

Figura 22.

Fonte: Autor.

4. Problema de localização:

Segundo Lachtermacher (2004) na área de negócios é muito comum a


identificação de problemas de localização. Como a localização de fábricas,
armazéns, centros de distribuição, usinas de produção de energia elétrica,
torres de transmissão telefônica etc. Em problemas desse tipo, um dos métodos
utilizados para resolução do mesmo é o de Minimizar a Distância Total entre os
centros de consumo e o centro, ou os centros, de distribuição. Reduzindo assim,
teoricamente, o custo de transporte ou das perdas de sinal de transmissão.

86
PRÁTICAS │ UNIDADE II

Vamos imaginar o caso da LSM Telefonia Celular DF:

O gerente de projetos da LSM Telefônica DF precisa localizar uma antena de


transmissão para atender três localidades de Brasília, no Distrito Federal. Mas
devido a problemas técnicos a nova torre não pode estar a mais de 30 km do
centro de Brasília, no Plano Piloto.

Considerando as localizações relativas a seguir, o gerente deve tomar a decisão


do melhor posicionamento para a nova antena.

Localize as coordenadas UTM de cada centro consumidor.

Tabela 16.

Localidades X UTM(E) Y UTM (N)


Ceilândia
Gama
Planaltina
Local a ser escolhido É a coordenada teoricamente aproximada e É a coordenada teoricamente aproximada e
que será ajustada que será ajustada
Fonte: Lachtermacher, 2004.

Foi contratada a empresa LS geoprocessamento que usou o Google Earth para


mapear a localização de cada ponto de interesse. Obtendo assim as distâncias
e, principalmente, as coordenadas UTM do centro de cada cidade satélite de
interesse, em relação ao Plano Piloto de Brasília.

Distância de Ceilândia ao centro de Brasília DF.

Figura 23.

Fonte: Autor.

87
UNIDADE II │ PRÁTICAS

Reparem que as localidades foram determinadas a partir de um ponto com


origem no centro do Plano Piloto. As coordenas UTM podem ser desenhos, ou
plotadas usando o DraftSifht.

Assumindo agora que as localidades são pontos num plano cartesiano e que
podem ser identificado pelas coordenadas (x, y) para os centros de cada cidade
satélite e pelas coordenadas (X, Y) para o local onde deverá ser construída a nova
torre de transmissão, o nosso objetivo será minimizar a distância total entre o
ponto da nova ANTENA e os centros consumidores, ou seja, os centros de cada
cidade satélite.

As variáveis de decisão serão dadas por:

X – Coordenada no eixo X da torre de transmissão.

Y – Coordenada no eixo Y da torre de transmissão.

x – Coordenada no eixo x das localizações.

y – Coordenada no eixo y das localizações.

Lembre-se que a distância entre dois pontos é:

√(X₁ − x₁)² +(Y₁ − y₁)²

Nosso objetivo é minimizar

Min ∑ √(X₁ − x₁)² +(Y₁ − y₁)² + √(X1 − x2)² +(Y₁ − y2)² + √(X1 − x3)² +(Y₁ − y4)²

As restrições de distância representam a condição de que a nova torre não pode


estar localizada a uma distância superior 30 km:

√(X₁ − x₁)² +(Y₁ − y₁)² <= 30

√(X1 − x2)² +(Y₁ − y2)² <= 30

(X1 − x3)² +(Y₁ − y4)² <= 30

Obs.: podemos usar o Solver do LibreOffice Calc para resolver o problema. A partir
daqui poderíamos sair do método paramétrico e entrar no método condicional,
usando multiplicadores de Lagrange.

Uma primeira conclusão: nossa viagem até aqui é apenas um início neste vasto campo
que é o ajustamento de observação. Podemos aplicar esse conhecimento em topografia,
como também no largo campo do posicionamento geodésico, por satélites GNSS.
Temos ferramentas tecnológicas, como as oferecidas pelo IBGE, chamadas de PPP –
Posicionamento por Ponto Preciso; com o rastreio de um único ponto, usando apenas
um aparelho de GPS, podemos obter um ponto de controle para o nosso trabalho
topográfico.

88
PRÁTICAS │ UNIDADE II

Também temos o chamado Rinex Virtual (GEGE – UNESP, software on-line FCT_
RTK_NET – VRS), que ainda não está operando em todo país, mas logo poderá estar
disponível na RIBac, a rede de monitoramento contínuo do INCRA.

Figura 24. PPP.

Fonte: IBGE.

Obs.: acessar o site do IBGE RBMC ou do INCRA RIBaC e fazer o cadastro, baixar
os dados Rinex de um ponto da rede e submetê-lo novamente para o processamento
do PPP, ou usar uma coordenada (Rinex) obtida com o seu próprio aparelho GPS, ou
ainda, conseguir as coordenadas no site do GEGE – UNESP, software on-line FCT_
RTK_NET – VRS (Virtual Rinex).

Figura 25.

Fonte: Ribac.

89
UNIDADE II │ PRÁTICAS

Obs.: mas não importa a tecnologia ou os novos métodos de mensuração, ou mesmo


os instrumentos ou equipamentos, que ainda nem foram inventados, todas as
medições topográficas e geodésicas devem seguir ou se orientar pelo princípio da
vizinhança.

Princípio da vizinhança

Regra básica da geodésia, que deve ser também aplicada à topografia. Esta
regra estabelece que cada ponto novo determinado deve ser amarrado ou
relacionado a todos os pontos já determinados, para que haja uma otimização
da distribuição dos erros. É importante a hierarquização, em termos de
exatidão dos pontos nos levantamentos topográficos, pois cada ponto novo
determinado tem exatidão sempre inferior à dos que serviram de base a sua
determinação, não importando o grau de precisão desta determinação. (NBR
13133, 1994)

Este material é basicamente um caderno de notas e para quem quiser se aprofundar,


realmente, sugerimos consultar as referências bibliográficas apresentadas aqui. Existem
inúmeras outras questões que não serão tratadas, como, por exemplo, as Séries de
Fourier que são usadas para encontrar a função matemática, quando não conhecemos
a distribuição dos dados, com aplicação na propagação das ondas dos satélites GNSS
ou medição das séries temporais para os estudos de deslocamento, por exemplo, numa
barragem.

O resumo, então, é saber que as medições devem ser superabundantes, devemos calcular
as médias e os erros e, principalmente, saber que esses erros são propagados

Quando falamos em rede, porém, entra em ação um conceito fundamental, o de


dimensão. As redes podem ser 1D (Nivelamento), 2D (Planimetria), 3D (GNSS) ou
até 4D, como é o caso da rede do IGS – Sistema Geodésico Internacional, quando
o tempo também é mensurado.

Trabalho adaptado de Wolf (1997).

1. Calcular as cotas A, B e C (Coordenada Z) ajustadas da rede de


nivelamento apresentada, segundo aos dados:

90
PRÁTICAS │ UNIDADE II

Tabela 27.

Linha Dif. De Nivel (m)


1 5,10
2 2,34
3 -1,25
4 -6,13
5 -0,68
6 -3,00
7 1,70
Fonte: Autor.

Figura 26.

1. Vamos lembrar da equação matricial do método paramétrico:

Ax = L => x = (AtA)-1At L

2. L é o vetor das medições, ou seja, a própria coluna da diferença de


nível.

3. x é o vetor das incógnitas A, B e C, ou seja, o resultado que estamos


procurando.

4. E a matriz A, como vamos obtê-la? A primeira regra seria encontrar


a função do problema e depois derivar aplicando o MMQ – Método
dos Mínimos Quadrados. Mas há outra regra da Teoria dos Grafos
(NETTO, 1996) que simplifica o problema. A topologia da rede é
composta por Arco e Nó e quando o grafo é orientado, como no nosso
caso, a matriz A será uma matriz de 3 colunas (Nós ou incógnitas)
por 7 linhas (Arco ou alinhamento), composta apenas de 0 e 1. Pois
de onde a seta sai (Vetor orientado) o valor é 0 (Zero) e onde a seta
chega o valor é 1 (Um).

91
UNIDADE II │ PRÁTICAS

1. Encontrar a matriz A:

Tabela 18.

A B C L
1 1 0 0 105.10
2 -1 0 0 -105.16
3 0 0 1 106.25
4 0 0 -1 -106.13
5 -1 1 0 -0.68
6 0 1 0 104.50
7 0 -1 1 1.70
Fonte: Autor.

Depois é só álgebra matricial para calcular os resultados.

Obs.: Quando a rede é 1D, como no nosso caso, temos três colunas – o mesmo
número das incógnitas. Se a rede fosse 2D teríamos 6 colunas, 3D nove colunas
e assim por diante. O número de colunas reflete a dimensão do problema. Uma
questão que vai ficar em aberto é sobre o grau de liberdade, n – 1 ou num caso
mais geral n – u. Pois o número de linhas da matriz é igual ao número de arcos,
ou alinhamentos, ou medições, vezes o número da dimensão do problema, 2D,
3D etc.

»» n – u, como calcular?

»» n = número de linhas, ou arcos, ou número de medições, vezes a


dimensão.

»» u = número de nós, ou incógnitas, vezes a dimensão.

2. Se a rede fosse 2D como ficaria a matriz A?

3. Qual é o grau de liberdade da nossa rede para 1D, 2D e 3D?

Obs.: a nossa rede poderia ter um peso para cada alinhamento,


ponderando o problema. Existem várias formas de fazer isso, uma
delas seria a de usar o inverso da distância como peso para as medidas.
Ou se o trabalho foi feito com aparelhos de precisões diferentes, seria
outra forma. Script 13:

> a<-c(1,-1,0,0,-1,0,0)

>a

92
PRÁTICAS │ UNIDADE II

> b<-c(0,0,0,0,1,1,-1)

>b

> c<-c(0,0,1,-1,0,0,1)

>c

> l<-c(105.10,-105.16,106.25,-106.13,-.68,104.5,1.70)

>l

> A<-cbind(a,b,c)

>A

L<-cbind(l)

> At<-t(A)

> At

> N1<-At%*%A

> N1

> N2<-solve(N1)

> N2

> N3<-At%*%L

> N3

> X<-N2%*%N3

>X

4. Vamos imaginar um levantamento feito com GPS, poderia desenhar


a rede, mas vamos imaginar. As coordenas do ponto A (100,200) e as
coordenadas do ponto B (200, 200). E desejamos fazer o transporte
de coordenadas para o ponto C, onde foram medidos os seguintes
vetores:

ΔXAC = 50

93
UNIDADE II │ PRÁTICAS

ΔYAC = - 100

ΔXBC = - 50

ΔYBC = - 100

5.
Figura 27.

Fonte: Autor.

Esse exercício foi retirado do livro do Monico, (2000), vamos dar uma olhada na
figura anterior, todos os dados são conhecidos: as coordenadas dos satélites, as
coordenadas dos pontos de controle, as linhas tracejadas (que são as distâncias
satélites-receptores), e até mesmo as coordenas aproximadas do ponto que
desejamos ajustar, são conhecidas.

Então o que precisamos calcular? São os ΔX, ΔY, ΔZ. E como fazemos isso?
Expandido a equação da distância Euclidiana em série de Taylor.

D = [(xj0-xi0)2 + (yj0-yi0)2]1/2

F(xi,yi, xj, yj) = (xi0,yi0, xj0, yj0) + (∂F/∂xi) dxi + (∂F/∂yi) dyi + (∂F/∂xj) dxj + (∂F/∂yj) dyj

Não existe dúvida sobre as coordenadas dos satélites. Contudo, a matriz L


pode causar alguma incerteza: Para Monico (2000), isso é bem desenvolvido.
Basicamente ele parte de uma relação em que a distância é calculada por uma
função que relaciona velocidade e tempo.

94
PRÁTICAS │ UNIDADE II

Tabela 19.

Coord. Cartesianas no Instante da Transmissão (m)


Satélite L
x y Z
2 13191926,036 -9634277,149 -20330138,156 27158681,742
7 21244105,748 -15360752,012 -2877135,125 27158712,879
10 -135122,979 -25794393,804 5954578,737 27158675,190
13 19720605,766 -17653994,853 -1657890,383 27158692,746
19 25910284,743 5823456,939 -2525126,594 27158738,028
26 -1932297,136 -16733519,796 -20382553,367 27158658,074
27 22374439,683 -3351761,100 -14280051,988 27158719,047
Fonte: Monico, 2000.

Essas coordenadas aproximadas são um chute do sistema.

Coord. Aproximadas do Ponto (m)


X0 X0 Z0
3687627,3634 -4620821,5137 -2386884,4153

95
PRÁTICAS FINAIS UNIDADE III

Estamos chegando ao fim do nosso caderno de estudos, lembrando que o foco


sempre foi o ajustamento pelo método paramétrico. Poderíamos repetir todos os
exercícios usando o método condicional e introduzir o conceito dos multiplicadores
de Lagrange. Seria uma nova aventura pelo mundo do ajustamento de observações.
Entraríamos um pouco mais fundo no estudo. Poderíamos trabalhar com análises
multivariadas, e mesmo assim não chegaríamos ao fim. Seria interessante fazer uma
análise de componentes principais – PCA. Porém, mesmo tratando somente, do
sistema estatístico R, foi possível fazer apenas uma breve introdução. No entanto,
esses conceitos que foram apresentados servem, ou servirão, para trabalhar com
qualquer tipo de equipamento ou processo de medição, no nosso caso mais específico,
e importante para o georreferenciamento de imóveis rurais, são: o GPS, a estação total,
os distanciômetros eletrônicos, os níveis etc.

CAPÍTULO 1
Práticas finais

As medições verticais obedeceram às normas técnicas da Petrobras, e as leituras


horizontais foram feitas a cada 7,5º, mantendo a proximidade da medida da
tangente, com o segmento do arco correspondente ao ângulo, tendo como raio
de projeto 20,990 metros.

T1. Desenhado usando o AutoCAD e o Topograph

Obs.: Esse trabalho foi feito para analisar o dimensionamento/estado do tanque.

Precisão dentro das tolerâncias de montagem mecânica (3 mm)

96
PRÁTICAS FINAIS │ UNIDADE III

Figura 28.

Fonte: <www.facebook.com/petrobrasbrasil>

Escala de cores:

Vermelho: fora da tolerância.

Azul escuro: fora da tolerância.

Amarelo: dentro da tolerância.

Verde: transição da tolerância para fora.

Laranja: transição da tolerância para dentro.

Local: Refinaria de Manaus.

Autor do levantamento e projeto: Leandro Amparo

1. Vamos assumir que x e y são coordenadas de três pontos de


um círculo, que foram medidas com uma estação total ET, num
referencial qualquer. As coordenadas são (9.4, 5.6), (7.6, 7.2) r (3.8, 4.8),
respectivamente. Podemos plotar as coordenadas num programa de
CAD como o Draftsight e calcular as coordenadas do centro e o raio do
círculo, porém o objetivo é fazer isso usando a função paramétrica do
círculo (x – h)2 + (y – k)2 = r2, utilizando a série de Taylor truncada, ou do
plano tangente, para linearizar a função do círculo.

F(h,k,r) = (h0,k0,r0) + (∂F/∂h) dh + (∂F/∂k) dk + (∂F/∂r) dr

F(h,k,r) = (h0,k0,r0) + Gradiente f(h,k,r) (dh, dk, dr)

97
UNIDADE III │ PRÁTICAS FINAIS

Figura 29.

Fonte: Autor.

Matriz Jacobiana
2. Encontre os valores, desconhecidos, de x e y da equação não linear
usado o teorema de Taylor para encontrar a matriz Jacobiana, matriz A.
Use x0=5 e y0=5 (como chute) para uma aproximação inicial:

JX = K

Função F

x2y – 3x2 = 75

Função G

x2 – y = 19

Retornando ao erro, um giro final


No começo do século XIX, o cálculo das órbitas celestes constituía a vanguarda das
pesquisas matemáticas. Telescópios mais avançados geravam novos dados sobre o
firmamento; e a lei da gravidade de Newton fornecia as lentes para interpretação dos
dados. No entanto, como já se sabia desde Tycho Brahe, em fins do século XVI, as
observações por telescópio estavam sujeitas a graves erros. Havia o erro sistemático
resultante de falhas nos instrumentos: lentes imperfeitas, bases desuniformes. Mas
também havia o erro ocasional, que não podia ser controlado – condições, fatores,

98
PRÁTICAS FINAIS │ UNIDADE III

atmosféricas variáveis, tremores de terra ou assistentes embriagados. Esse tipo


de erro incontrolável tornou muito complicada a tarefa de calcular a órbita dos
recém-descobertos cometas ou planetas.

Em 1806, Legendre publicou um tratado sobre o cálculo de órbitas, que incluía um


suplemento intitulado Sobre o Método dos Mínimos Quadrados. Tratava de um
problema comum: como encontrar o “verdadeiro” valor de uma órbita, ou qualquer
outro fenômeno natural, com base em observações dispersas, sujeitas a erro.

O método era simples: estime o valor (chute) e calcule a distância de cada observação
em relação à estimativa – o erro. Em seguida eleve ao quadrado cada erro e some todos
eles. Depois, faça outra estimativa e veja se a soma dos quadrados dos novos erros é
menor.

Repita várias vezes o procedimento. A estimativa dos “mínimos quadrados” gera erros
com a menor soma dos quadrados; é o valor que se encaixa com mais exatidão a todas
as observações. Trata-se de um método eficaz, cuja utilidade foi logo reconhecida e
que hoje é usado em todos os tipos de pesquisa física, da astronomia à biologia.
(MANDELBROT, 2004).

Problema final (trabalhando com o Erro V)


Vamos usar o Script a seguir para calcular a matriz do erro dos Práticas 10, 14, 15,
16 e 17:

V = AX – L

S0 = Raiz de VtV/r (r = n – u)

Qui-quadrado

> H0 = 1

> H0 ≠ 1

Qui-quadrado = (Graus de liberdade *S0)/1

Script final (o mais importante)

> V<-(A%*%X) – L

>V

99
UNIDADE III │ PRÁTICAS FINAIS

> Vt<-t(V)

> Vt

> S0<-sqrt((Vt%*%V)/gl)

> S0

> Qui<-gl*S0

> Qui

Mapa mental

Figura 30.

Fonte: Adaptado de Leick, 2004.

100
Referências

ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS – ABNT. NBR 13133: execução


de levantamento topográfico – procedimento. Rio de Janeiro, 1994.

BORGES, Alberto de Campos. Exercícios de topografia. 3. ed. Revisada e ampliada.


São Paulo: Edgar Blucher, 1975.

DALMOLIN, Quintino. Ajustamento por mínimos quadrados. Curitiba: UFPR,


2004.

GEMAEL, Camil. Introdução ao ajustamento de observações. Curitiba: UFPR,


1994.

LACHTERMACHER, Gerson. Pesquisa operacional na tomada de decisões.


2. ed. Revisada e atualizada. Rio de Janeiro: Campus, 2004.

LEICK, Alfred. GPS satellite surveyng. New Jersey: John Wiley and Sons, Inc.,
2004.

LADIM, Paulo M. Barbosa. Análise estatística de dados geológicos. São Paulo:


UNESP, 2003.

LAY, David C. Álgebra linear e suas aplicações. Rio de Janeiro: LTC, 2014.

MANDELBROT, Benoit et al. Mercados financeiros fora de controle. Rio de


Janeiro: Campus, 2004.

MCCORMAC, Jack. Topografia. 5. ed. Rio de Janeiro: LTC, 2007.

MELLO, Marcio Pupin et al. Conhecendo o R, uma visão mais que estatística.
Viçosa: UFV, 2013.

MENDES, Flávia C. Teixeira. Probabilidade para engenharias. Rio de Janeiro:


LTC, 2013.

MONICO, João F. Galera. Posicionamento pelo NAVSTAR-GPS: descrição,


fundamentos e aplicações. São Paulo: UNESP, 2000.

NETO, Benício de Barros et al. Como fazer experimentos. Porto Alegre: Bookman,
2010.

101
REFERÊNCIAS

NETTO, Paulo O. Boaventura. Grafos, teoria, modelos, algoritmos. São Paulo:


Edgar Blucher, 1996.

ROGERSON, Peter A. Métodos estatísticos para geografia, um guia para o


estudante. Porto Alegre: Bookman, 2012.

ROMERO, Carlos. Teoría de la decisión multicriterio: conceptos, técnicas y


aplicaciones. Madri: Alianza Universidad Textos, 1993.

SALSBURG, David. Uma senhora toma chá: como a estatística revolucionou a


ciência no século XX. Rio de Janeiro: Jorge Zohar, 2009.

TOMPKINS, James A. et al. Planejamento de instalações. Rio de Janeiro: LTC,


2013.

VUOLO, José Henrique. Fundamentos de teoria dos erros. São Paulo: Edgar
Blucher. 1992.

WEEKS, Michael. Processamento digital de sinais, utilizando matlab e


wavelets. 2. ed. Rio de Janeiro: LTC, 2012.

WOLF, Paul R. et al. Adjustment computations statistics and least squares in


surveying and gis. New York: John Wiley and Sons, Inc., 1997.

Sites
<http://www.fct.unesp.br/#!/pesquisa/grupos-de-estudo-e-pesquisa/gege/>

<www.calibraend.com.br>

102

Você também pode gostar