Você está na página 1de 250
ii Trabalho dedicado 4 meméria de meu pai Adalberto Felipe Vuolo Embora este Guia fornega um esquema de trabalho para atribuir incerteza, ele nado pode substituir pensamento crttico, honestidade intelectual e habili- dade profissional. A avaliacéo de incerteza néo é uma tarefa de rotina, nem um trabalho puremente matemdtico; depende de conhecimento detalhado da natureza do mensurando e da medicdo. Assim, a qualidade e utilidade da in- certeza apresentada para o resultado de uma medigdo dependem, em tltima insténcia, da compreensdo, da andlise critica e da integridade daqueles que contribuiram para atribuir o valor 4 mesma. Tradugio de trecho do “Guide to the Expression of Uncertainty in Measurement” Publicag&io de 1993, em nome das Instituigdes BIPM IEC IFCC ISO IUPAC IUPAP OIML JOSE HENRIQUE VUOLO Professor Assistente Dontor do Instituto de Fisica da Universidade de Séo Paulo FUNDAMENTOS DA TEORIA DE ERROS 25 edicdo revista e ampliada C EDITORA EDGARD BLUCHER LTDA ©1996 José Henrique Vuolo 2 edigtio - 1996 4® reimpressdio ~ 2005 E proibide: a reprodugéa total ou paveial por quaisguer ntelos sem autorieagdo escrita da editora EDITORA EDGARD BLOCHER LTDA Rua Pedrose Alvarenga, 1245 - ej. 22 04531-012 ~ Sao Paulo, SP - Brasit Fax: (0xx11)3079-2707 e-mail: editova@blucher.com br site: www.blucher.com.br Huipresso uo Brasil Printed in Brazit ISBN 85-212-0056-0 FICHA CATALOGRAFICA. Vuolo, José Henrique, 1950- Fundamentos da teoria de eros / José Henrique Vuolo — Siio Paulo: Edgard Biticher, 1996 Bibliografia, ISBN 85-212-0056-0 1, Teoxia dos ervos 1. Titulo. 05-6233 CDD-S11 + indices para catalogo sistematico: 1. Teoria do orros: Mateméticn $11.43 Prefaécio da 2a Edicao Este texto foi escrito para ser utilizado em cursos de laboratério de de Fisica Geral para alunos de Pisica e Engenharia, sendo baseado em apostilas e textos isolados que escrevi ao longo dos anos desde 1976. Entretanto, varios tépicos foram acrescentados para dar maior rigor € consisténcia ao conjunto. Assim, acredite que o texto seré util também para estudantes de Iniciagdo Cientifica e Pés-graduacio, no tratamento de dades experimentais. Uma. das dificuldades do assumto ¢ a existéncia de algumas di- vergéncias na nomenclatura ¢ em regras bésicas relativas a incertezas. Felizmente, tem sido realizado um esforgo, em nivel de organizagdes internacionais, no sentido de unificar a nomenclaturae se chegar a um consense quanto a certas regras basicas. Um dos bous resultados desse esforgo 4 a publicac&o de um texto importante no assunto, 0 Guide to the Expression of Uncertainty in Measurement (Referéncia 20}, edi- tado em 1993 em nome de varias organizagées internacionais ( BIPM, IEG, IFCC, ISO, IUPAC, IUPAP e OIML). Esta publicagio serviu de base para modificagdes na nomenclatura desta 2a Hdigéo, em relagao & is Edigio. Além disso, algumas palavras foram modificadas confor- me a traducdo patrocinada pelo INMETRO em 1994 (Referéncia 22), do International Vocabulary of Basic and General Terms in Metrology, também publicado em nome das organizag6es citadas. Agradego a Odair G. Martins, pelas Gteis discussdes sobre o assunto. Agradego ao Prof. Vito R. Vanin por apontar falhas de nomenclatura ¢ outras falhas conceituais em apostila preliminar que escrevi, além de outras valiosas sugestées. Agradecgo ac Prof. Giorgio Moscati, pela valiosa colaboragdo em questées relativas & Metrologia. Agradeco ao Prof. Aluisio N. Fagundes pela grande ajuda no uso do computador e de programa ETpX, utilizados na edic&o deste texto. SSo Paulo, Setembro de 1995 THvVuole Indice Capitule 1 - Probabilidades Distribuigdes para varidvel discreta 1.1, Probabilidade e frequéncia relativa 1.2, Distribuigao de varidvel discreta ... 1.3. Valor médio e desvio padrio . 1.4, Distribuig&o binomial 1.5. Distribuigic de Poisson 1.6. Aplicagdes da distribuig&o de Poisson » Room wH Capitulo 2 - Probabilidades Distribuigdes para varidvel continua 2.1. Varidvel continua ..... 2.2, Fungiio de densidade de probabilidade 2.3. Valor médio e desvio padrao 2.4. Funcdo de Laplace-Gauss 2.5. Histograma .... Capitulo 3 - Distribuicaéo gaussiana 38.1. Valor verdadeiro do mensurando . Al 3.2. Definigéo de erro . 44 3.3. Distribuicdo de Laplace-Gauss . 4B 3.4. Justificativa para a fungao gaussiana . - 46 vill Capitulo 4 - Incerteza 4d. 4.2. 4.3. 44, 4.5. Objetivos da teoria dos erros Formas de indiear a incerteza, Intervale de confianga Interpretagao da incerteza padrao Limite de erro 4.5.1, Distribuigiio gaussiana 4.5.2, Outras distribuigées . 4.5.3. Regra pratica .......c0cc0ccccceseeeseeseeeeeeeees Capitulo 5 - Algarismos significativos 5.1. 5.2, 5.3. 5.4. . Algarismos significativos na grandeza 55. 5.6. 5.7. Incerteza padrao experimental Conceito de algarismo significative Algarismos na incerteza padrdo Arredondamento de mimeros .... Formas de indicar a incerteza padréc Grandezas som indicagdo da incerteza 0... 73 Capitulo 6 - Erros sistemdticos e estatisticos 6.1. 6.2. 6.3. 6.4. 6.5. 6.6. 6.7. Valor médio de n resultados Erros estatisticos e sistematicos Erros estat{sticos Erzos sistematicos 6.4.1 Erros sistematicos instrumentais . 6.4.2 Erros sistematicos ambientais .. 6.4.3 Erros sistematicos observacionais 6.4.4 Erros sistematicos tedricos e outros Incertezas sistematicas residuais Erros grosseiros ... . . Incertezas de tipo Ae de tipo B feeb b ee eect eee ee eens 87 Capitulo 7 - Valor médio e desvio padrao 7.1. Valor médio verdadeiro . Desvio padrao para n medigées .. . Desvio padrao no valor médio 7.4. Desvio padrao experimental 7.5. Limite de erro estatistico 7.6, A incerteza padrao 7.7. Incerteza sistematica residual 7.8. Incertezas relativas 7.9. Resume Capitulo 8 - Propagagao de incertezas 8.1. Férmula de propagagio de incertezas 8.2. Algumas formulas de propagacio 8.3. Dedug&o da formula de propagacao 8.4. Covaridncia 8.5. Cerrelagao 8.6. Transferéncia de incerteza 8.7, Combinagdo de incertezas tipo Boo... . cc sec ese e eee en eee Capitulo 9 - Instrumentos de medigio 9.1. Leitura de instrumentos 9.2. Incertezas de tipo A e tipo B 9.3. Estimativa da incerteza de tipo B .... 9.4. Erros de calibragio 9.5. Erro instrumental 101 - 107 Lig 115 . 18 . 11 » 122 . 125 127 . 129 . 130 . 130 . 138 Capitulo 10 - Método de maxima verossimilhanga 19.1. Conjunto de pontos experimentais 10.2. Ajuste de fungdo ............---5 1.3. Método de maxima verossitnilhancga 10.4. Qualidade de um ajuste de fungio 4 » 143 . 144 . 146 x Capitulo 11 - Método dos mfnimos quadrados 11.1. Dedugio do método . 11.2. Melhor aproximagdo em n medigdes 1L3, Média para n medigdes idénticas Capitulo 12 - Fungao linear nos parametros 12.1. Solugao geral para os parametros 12.2. Inversdo de matrizes 12.3. Incertezas nos pardmetros 12.4, Covariancia dos parametros .... 12.5. Ajuste para incertezas ignais 12.6. Interpretagdo de x” bene eee 12.7. Independéneia entre os parametros . Capitulo 13 - Regressao linear e polinomial 13.1. Ajuste de reta .., 13.1.1. Caso geral 13.1.2. Ajuste de reta para incertezas iguais ........ 13.1.8. Ajuste de reta yzax 22... cece sees 13.1.4. Ajuste de reta y=ax, com incertezas iguais 13.2. Ajuste de polinémio . 18.3. Covarianeia dos pardmetros ..........6s0ceeeeseeces Capitulo 14 - Qualidade de ajuste 14.1, Verossimilhanca no ajuste de funcio 14.2. Barras de incerteza ...... 14.3. Teste de x?-reduzido 14.4. Utilizagdo de x24... 14.5. Incertezas descomhecidas ¢ iguais .......0.....es00 e+ 149 - 152 155, 187 ~ 162 . 163 - 166 - ETL . 172 175 -. 176 _ 1? . 179 180 189 . 193 - 195 - 201 xi Apéndice A ~ Probabilidades A.1. Definig&o de probabilidade vee 211 A.2. Lei dos grandes miimeros » 213 A.3. Teorema do limite central » 213 A.4, Teorema de Lindeberg-Feller » 245 Apéndice B - Vocabulario sobre erras B.1. Introdugao 27 B.2. Vocabulério .. Apéndice C - Regras ortodoxas e aleatérias - 227 C.1. Teorias “ortodoxa” e “aleatéria” C.2. Recomendagdes do BIPM sobre incertezas .3. Regras ortodoxas C.A. Discussao sobre as regras Apéndice D Critério de Chauvenet .. » 233 Apéndice E Varidveis correlacionadas (Propagacio de incertezas) ....... 235 Apéndice F Incerteza no desvio padr8o .. 6... cc eee eee cee rear eee e ee 237 Referéncias bibliograficas Indice remissivo ..........060c cc ccceeceeeee trees 241 Capitulo 1 Probabilidades Distribuigdes para variavel discreta Resumo Neste capttulo sdo resumidos alguns conceitos bdsicos sobre probabili- dades e sabre distribuigdo de probabilidades com varidvel discreta. Em particular, sdo deduzidas as distribuicées binomial e de Poisson, tm- portanies exemplos de distribuicées discretas. 1.1 Probabilidade e frequéncia relativa Processo aleatério 6 qualquer fendmeno que pode ter diferentes resulta- dos finais, quando repetide sob certas condigées predeterminadas. Nem todas as condigdes envolvidas no fendmeno precisar ser predetermina- das. Muitas vezes, 9 que torna o proceso aleatério é justamente o fato de que algumas condigées ndo sio ou n&o podem ser repetidas. Os diferentes resultados finais podem ser defizides como eventas. Mas, os diferentes resultados finais podem também ser arbitrariamente reunidos em grupos, os quais podem ser definidos como eventos. 1 2 CAPITULO 1. PROBABILIDADES Exemplo 1. Um exempio simples de processo aleatério ocorre ao jogar um dado comum com as maos. O processo pode ter 6 diferentes re- sultados finais: 1, 2, 3, 4, 5 e¢ 6. Estes @ resultados finais podem ser definides como eventos. Os eventos podem também ser definidos de maneiras diferentes, agrnpando resultados finais, tal como Lou 2 3, 4, 5 ow 6. evento A evento B Se o dado fosse jogado com uma méquina, de tal forma que a posigao e a velocidade iniciais do dado fossem precisamente predeter- minadas, poderia ser que o resultado final fosse totalmente repetitive ¢ o fenémeno deixasse de ser aleatério. Quando o dado é jogado com as mos, nem todas as condicées sao repetidas e 6 justamente o que torna o fendmeno aleatério. Por outro lado, existem certos fenédmenos fisicos que s&o aleatérios, mesmo que absolutamente todas as condigdes envolvidas sejam repetidas. Em particular, v4rios fendmenos que ocorrem com dtomos, micleos atémicos @ particulas elementares sio deste tipo. Isto 6, 0 processo é aleatério mesme quando todas as condigées externas sio repetidas. No que segue seré considerado um processo aleatério y do qual pode resultar um niimero finito m de eventos indicados por Be em a am suentos posstveis onde y; indica qualquer um dos eventos. A frequéncia de ocorréncta do evento y; é definida como o nimero de vezes N(y:) que ocorre y; quando o processo y é repetido NV vezes. Resulta desta definigio que Siw) = Nv. (a) = 1.1, PROBABILIDADE E FREQUENCIA RELATIVA 3 A frequéncia relativa do evento yj; ¢ definida como N (ue) N Fly) (1.2) Isto é, a frequéncia relativa é a fragdo de eventos y, em relagiio ao niimero total de eventes. Se o processo € repetido indefinidamente (MN —+ co), espera-se que esta fracio se torne um niimero cada vez mais definido’ que 6 a probabilidade de ocorréncia do evento y;. Isto 4, a probabilidade de ocorréncia de evento y; é definida por P(y) = jim Sw fr a PW (3) A Equag&o 1.2 mostra que a probabilidede 6 um mimero de @ 4 1, pois 0s A(yi) SN. Frequentemente, a probabilidade é dada na forma de porcentagem : Py(y.) = 100 Ply.) (probabilidade em porcentagem ). A definigao 1.3 mostra que a frequéncia relativa é sempre uma apro- ximag&o para a probabilidade de ocorréncia do evento. Esta aproxi- magio é tanto melhor quanto maior o niimero N de repetigdes do processo. Conforme as Equagdes 1.1 e 1.2, EFw- % Ms N(w) = 1. & ii Assim, resulta om nm LF) = P@ = 1. (14) =i =i Isto é, a soma das probabilidades para todos os eventos possiveis é 1. lEste tipo de convergéncia de F(ys) para um valor bem definido, conforme NN aumenta 6 assegurada pela chamada “Lei dos grandes ntimeros”, resumida no Apéadice A. As diversas definigies de probabilidade também so resumidas neste mesmo Apéndice. 4 CAPITULO 1. PROBABILIDADES A propriedade 1.4 permite calcular a probabilidade, quando os even- tos sAo equiprovudvezs. Se as probabilidades P; sao iguais, Pla) = PQ) = + = Pi) = = Pn) = P e resulta que SP) = 0d! = pm = iI Assim, 1 p=-. (1.5) m A frequéncia de eventos diferentes y, e y, em N_ repeticées de um mesmo processe 6 a soma das frequéncias de cada um. Assim, resulta que @ probabilidade para os dois eventos (y cu y;) em um miesmo processo é P(y, ow yj) = P(y) + Ply) para i AG (6) Uma propriedade importante se refere a probabilidades para 2 pro- eessos aleatdrios Y e Z independentes entre si”. Se P(y;) 6 a proba- bilidade do evento y, no processo Ye P(z;) & a probabilidade do evento z; no processo Z , entio pode ser mostrado que a probabili- dade de ocorréncia simultanea dos eventos y; ¢ 2; é Ply @ a) = Pu) P(e) (L7) Esta propriedade pode ser demonstrada considerando N repeticdes simultaneas dos processos Y e Z. No processo ¥ , o evento ’y; ocorre N(y) vezes. Considerando apenas os casos em que ocorreu y, no pro- cesso Y, somente numa fracio F(z,;) desses casos ocorreu também z; no processo Z, Isto 4, o mimero de vezes que ocorreu y; e z; simultanea- mente é N(y.) F(z;). Dividindo por N, obtém-se F(y;) F(z), que no limite para N —> oo resulta na equagio acima. A demonstragio pode ser generalizada para o caso geral. em que ocorrem N repetigdes do processo Y e Af repetigdes do processo Z. Admitindo N < M, basta considerar N repetigdes simultaneas clos dois processos e (Mf — N) Por exemplo, jogar um dado (proceso Y) ¢ uma moeda (processo Z). 1.1. PROBABILIDADE E FREQUENCIA RELATIVA 5 repetices isoladas do processo Z. Evidentemente, nas repetigdes isola- das do processo Z, no existem eventos y;, e portanto, as (M — N) repeticdes isoladas do processo Z podem ser simplesmente ignoradas. Assim, vale a mesma demonstragao anterior. Se M < N basta trocar y por z e vale a mesma demonstragao. Em certos casos, 6 possivel calcular as probabilidades para os di- ferentes resultados de um processo complicada, utilizando somente as Equacdes 1.5, 1.6 e 1.7. Isto ocorre quando € posstvel desmembrar © processo complicado em processos independentes mais simples, nos quais seja possivel identificar resultados equiprovaveis. Exemplo 2. A tabela mostra possiveis resultados de um dado jogado NV vezes, onde “4” € 0 evento de interesse, indicado por yy. N(y4) 6a frequéncia e F(ys) = N(ys)/N € a frequéncia relativa. N 10 = 100 1000 gt 108 10° Nw) | 3 12 163-1698 = 16605 166753 F(ys) | 0,30 0,120 0,163 0,1698 0,1660 0, 16675 Devido a simetria das 6 faces de um dado, o3 6 resultados possiveis podem ser considerados equiprovaveis e a probabilidade de cada resul- tade 6 dada pela Equago 1.5, para (in =6): P(ys) = p = 1/m = 0.166666... ( probabilidade tedrica) . A frequéncia relativa F'(y,) é sempre uma aproximagiio para a probabilidade P (ys) = p, embora esta aproximagdo seja muito ruim nos primeiros casos. Deve ser observade que p= 1/6 = 0,166666... pode ser con- siderada uma “probabilidade teérica” e nac o valor verdadeiro para a probabilidade. Isto é, 0 dado ou a maneira de jogd-lo podem ser “vi- ciados” e as probabilidades para diferentes resultados podem nao ser exatamente iguais. 6 CAPITULO 1. PROBABILIDADES Exemplo 3. Um projétil pequeno é disparade contra uma drea A, na qual existe nm alve de érea S$ (ver Figura 1.1). O problema consis- te em calcular a probabilidade de acerto no alvoe menor, se o projétil atinge a drea A totalmente ao acaso. A probabilidade de acerto pede ser calculada. identificando resulta- dos equiprovaveis. Um modo de fazer isto consiste em dividir a drea A em um reticulade de pequenos quadrados de drea As. O numero de quadrados contidos na érea A é aproximadamente me A, As O acerte em cada quadrado é um resultado equiprovavel, sendo a probabilidade dada por 1.5: @ =o A probabilidade P de acerto no alvo menor é, conforme 1.6, a soma das probabilidades de acerto nos n quadrados centidos no alyo menor. Figura 1.1. Um projétil é disparade ae acase contra um alvo maior de drea A, na qual existe um alve menor de drea S. 12, DISTRIBUIGAO DE VARIAVEL DISCRETA 7 O niimero de quadrados contidos na drea S é dado aproximada- mente por ne ~ As? e assim, Penpes, A Em principio, o resultado acima é aproximado porque nao € posstvel determinar exatamente os nimeros m e 7, devido a uma certa inde- finigéo dos quadrados nas bordas das dreas A e S$. Entretanto, a dificuldade desaparece para As arbitrariamente pequena (As + 0). Neste limite, o resultado acima pode ser considerade exato. 1.2 Distribuigaéo de varidvel discreta No que segue, sao considerados processos aleatérios, para os quais cada resultado pode ser descrito quantitativamente por um ntimero® y Quando os resultados posstveis para y constituem um conjunto bem definido de valores y%, que podem se enumerados, a quantidade y é chamada varidvel discreta. Isto é, uma varidvel discreta y poderd assumir valores que podem ser enumerados em ordem crescente, tal como We a tm - 1m valores possivets Cada um dos possiveis valores y; da varidvel discreta tema uma probabilidade P(y;) de ocorrer num processo simples. O conjunto de m valores P(y;), pata todos os valores possiveis de i, é definido como a distribuigde de probabilidades para a varidvel discreta y. Uma propriedade importante da distribuigao de probabilidades é a Equagéo 1.4, que é chamada condigdo de normalizagda: X Pw) = 1. (18) f=) 3Que pode ser adimensional ov ter uma dimensio fisica, 8 CAPITULO I. PROBABILIDADES 1.3 Valor médio e desvio padrao Para N repetigdes de um processo aleatério de varidvel discreta y, 0 valor médio de y 6 definide por 1 ; y= We Yi, (19) onde Yi, ¥2,--:, Ye. +++, ¥y sde os N resultados obtidos para y. Se cada resultado posstvel y; occorreu N(y;) vezes, a soma So¥; pode ser rearranjada como > Ny, . Assim, o valor médio ¥ pode ser reescrito como mn Nw = AY = = ae 1.10 y N (1.10) Arazio N(u)/N éa frequéncia relativa. F (yj). Assim, P= Duk). (1.11) = Conforme N —+ 00, 0 valor médio J deve se aproximar de um valor bern definide’, que é chamado valor médio verdadeiro ov média limite 5. Assim, o valor médio verdadeiro pede ser representado por® w= fim vy (2.2) Por outro lade, quando N —+ oo, a frequéncia relativa F(y:) deve tender & probabilidade P(y,). Assim, a Equacéo 1.11 mostra que o valor médio verdadeiro é dado por B= S uP). (1.13) war) ‘Bsaencialmente, esta é a “Lei dos grandes niimeros”, resumida no Apéndice A. 5Também chamado “esperanga matemética de y", ou “média da distribuigio”. °Bsta ado é uma maneira muito correta de representar o valor médio verdadelro, pois © valor médio “converge” para o valor médio verdadelzo em fermos probe~ bilisticos, ¢ no no sentido de convergéncia de um limite matemético. 14. DISTRIBUICAO BINOMIAL 9 Urna vez que o miimero N de repeticées de urn processo aleatério no pode ser infinito, é evidente que o valor médie verdadeiro pp 6 uma quantidade sempre desconhecida, para uma distribuigaés de probabili- dades real. A Equagio 1.13 parece sugerir que o valor médio verdadeiro pode ser conhecido exatamente, mas isto no ocorre na pratica, pois os valores das probabilidades P(y;) nunca sio conhecidos exatamente. Uma caracterfstica importante de uma distribuigdo de probabilida- des 6 a variéneia, que é definida por m = YS (u-n) Ple). (4.14) O desvio padréo @ da distribuigio de probabilidades é definido como a Taiz quadrada positiva da variancia, isto é, a= t¥eF = +4) Sew Pld i As equagées acima definem valores verdadeiros para a varidncia e para 6 desvio padric. Na pratica, estas quantidades também 8a0 conhecidas exatamente, peis je as probabilidades P(y;) nao sio conhecidos exatamente. 1.4 Distribuigéo binomial A seguir, é considerado um processo aleatério simples, no qual a proba~ bilidade de ocorréncia de um evento A é p. Um problema importante édeterminar a probabilidade FP, (y) para y ocorréncias do resultado A em n repetigées do processo. A distribuicdo de probabilidades P,,(y) que é solucao deste proble- ma échamada distribuigdo binemial, deduzida a seguir. As n repeticdes do processo simples, também podem ser entendidas como um tinico processo constituide de m processos independentes. 10 CAPITULO I. PROBABILIDADES Indicande por B a “nado ocorréncia” de A, um exemple de resultado possivel é AAA-AA BBRBRB.-BBB (1.15) ¥ vexes (ny) weses Isto é, o resultado A ocorre nas y primeiras repetigdes do processo endo ocorre nas (n — y) wltimas repeticies. A probabilidade de ocorréncia de A em cada processo simples é p, sendo (i-p) a probabilidade para B. A probabilidade de ocorrer 1.15 é dada pelo produto das probabilidades individuais, conforme a Equagio 1.7: Po = pi(1 ~ py. (1.16) O resultado 1.15 é, na realidade, muito particular. Qualquer troce de A com B em 1.45 também é um resultado com y ocorréncias de A em m repetigoes do preeessa ¢ com probabilidade Fy. © nitmero de resultados possiveis é dado por nl ulin yy? que é 0 mimero de combinagées possiveis de y objetos idénticos em nm posigdes. Isto é, pode ser considerado que os eventos A sao y objetos idénticos que devem ser arranjados em n lugares, sendo os (n - y) lugares restantes “ocupados” por B. O resultado acima também pode ser deduzide como segue. O nti- mero total de trocas em 1.15 (A com A, A com B ou B com B) é dado por nl, que é 0 mimero de permutagdes possiveis entre n objetos. Entretanto, para cada permutacdo, existem y! trocas de A com Ae (n—y)}! trocas de B com B que correspondem ao mesmo resultado. Assim, o niimero total de permutagées deve ser dividido pelo niimero total de resultados idénticos para cada permutagio, para se obter o mimero de resultados diferentes possiveis. Assirn, conforme a Equacgao 1.6, a probabilidade total de y ocor- réncias do evento A em n repetigdes do processo é dada pela soma das probabilidades, que é Py vezes o nimero de possibilidades : Pay) = Cap pY(L— py". (1.18) Coy = (1.17) 14, DISTRIBUICAO BINOMIAL uw Substituindo 1.17 em 1.18, obtém-se a distribuigdéo binomial: PW) = apr (1.19) aly) = yiin—y)i Py . + A distribuigiio binomial 6 uma distribuigio de probabilidades para a varidvel discreta y, que s6 pode assumir valores inteiros de 0 a n O valor médio verdadeiro z pode ser calculado diretamente a partir da Equagao 1.13, observando que y= (6-1) (quando i=1, um =0) e m=nti Isto e, o indice i pode ser trocado por y, = y na somatéria, mas assu- mindo valores de 0 a n: “3 Vana . (1.20) yl - ~y)! A demonstragao deste resultado é baseada na formula para expamsio do binémio? : . (+p) = Do Gap ge. (1.21) =D Substituindo 1 4° Go e n= (r+1) na express 1.20, obtém-se = w+ . ne “ ed Oly Foes (k= pre (1.22) Substituindo (y-1} por 2, obtém-se cH Lee dag p(r +) {G—p) + pet? = pir +1) = pn. (1.24) 7 que den origem ao adjetivo “binomial” para a distribuiggo binomial. FL pyr (1.23) S i il 12 CAPITULO 1. PROBABILIDADES Para @ variancia, pode ser demonstrado® diretamente da definigao 1.14 que of = Sy~H)*P,(y) = np(1~p)- (1.25) y= Em resumo, o valor médio y eo desvio padrao o, para a distribuigéo binomial so dados por a a= api. (028) Usando a expansio binomial 1.21, pode ser diretamente verificada que a distribuicdo binomial satisfaz & condicdo de normalizacio 1.8. Isto é, ee np py =[-p) tpl" =1. Exemplo 4. Um dado é jogado 10 vezes ¢ 0 resultado “4” é conside- rado como evento A. Em cada jogada, a probabilidade de ocorréncia. doeventa A ¢ p=1/6. A distribuicdo binomial permite caleular a probabilidade Pio (y) dese obter y eventos A em 10 jogadas. Isto é, jogando o dado 10 vezes, o resultado “4” pode ocorrer 10 vezes ou 9 vezes ou 8 vezes e assim por diante, até nenhuma vez. As probabilidades sao dadas por Pol) = aaaca GY QO yi (lO~y Os valores caleulados séo mostrades na Figura 1.2. 5A demonstragdo é mais trabalhosa, mas utiliza artificios semelhantes aos usados na demonstracao acima. Tais artificios sao sugeridos na. Questéo 1. 15. DISTRIBUICAO DE POISSON 13 Poly) * Figura 1.2. Disiribuicée binomial para p = 1/6 en = 10, que fornece a probabilidade de obter y resultados “4” em 10 jogadas de um dado. 1.5 Distribuigéo de Poisson A distribuicdo binomial 6 importante do ponto de vista conceitual, mas a expresso 1.19 é incoaveniente quando n >> 1 e p<< 1, devido as dificuldades de calculos. Neste caso, 6 possivel obter uma boa apro- ximacdo para a distribuicdo binomial que é a distribuigdo de Poisson: we, Fly) = eo (1.27) onde 14 CAPITULO 1. PROBABILIDADES Para n >> 1 @ p << 1, as probabilidades dadas pela distribuigao binomial 36 sio significativas para _y << n. Além destas condicées, a distribuicao de Poisson é deduzida usando a chamada aproximagéo de Stirling : L Inn! & ninn — n+ g n2en para 2 >> 1. (1.28) e@ aexpansao de In(1+-) em série de poténcias: es Infi+2) & a2 - ty pera |ej<< 1. (1.29) Caleulando In Pa{y) a partir da expresso 1.19, obtém-se 1 in P,(y) = In a + Inn! —In(n —y)! + ying+ (a ~ y)In(i ~ p). (1.30) Utilizando as aproximagies 1.28 e 1.29, obtém-se i Innl & ninn—n+Zinn+ Sinn, 1 1 ln(rn ~ y)! = nlnn —a+ glnnt 5 in2n—ylon (n-y)nG-p) & -np. Substituindo estas aproximagées na expressio para In P,(y) , obtém-se a distribuigdo de Poisson. Além da maior simplicidade para céleulos, a disiribuigdo de Poisson 1.27 tem outras vantagens, discutidas a seguir. O valor médio je o desvio padrao o, para a distribuigdo de Poisson sic obtidos diretamente de 1.26 para p<< le n>>1: w= np e oS fib = JE. (1.31) O Exemplo 5 mostra que a distribuigao de Poisson 1.27 é uma apro- ximagao aceitavel para a distribuicgdéo binomial, mesmo para rn = 10 e p = 0,2, caso em que as condigdes nm >> 1 6 p << 1 so apenas razoavelmente satisfeitas. Se estas condigdes fossem muito bem. satisfeitas, 0 acordo seria muito melhor. 1.5. DISTRIBUICAO DE POISSON 15 Exemplo 5. Se um projétil ¢ disparado contra um alyo com probabi- lidade p de acerto (ver Exemplo 3), as probabilidades de y acertos em n disparos sic dadas pela distribuigao binomial 1.19. No caso em que n>>1 e p<< 1, a distribuicio de Poisson 1.27 pode ser utilizada como aproximagéo. A Figura 1.3 mostra as distribuigdes para _n = 10 ep=0,2 P ily) © Binomial para n = 10 p = 0,2 © -+Poisson paran=10 ¢ p= 0,30 0,20 0,10 Figura 1.3. Comparagao entre as distribuigdes binomial e de Poisson. Embora a distribuigao de Poisson seja uma aproximagao para a distribuigiéo binomial, ela apresenta grandes vantagens no caso n >> 1 ep << 1. Uma das vantagens é que ela 4 bem mais simples de ser calculada, sendo uma aproximacao muito boa. Uma outra vantagem 6 © fato que a distribuigdo de Poisson sé depende do parametro y (valor médio), enquanto que a binomial depende de 2 parametros (n e p). 16 CAPITULO 1. PROBABILIDADES 4 P, % valu) (A) + Poisson 12,0 F Oo Gaussiana e@ L o|o s e 10,0 |- fe] oO L e e 8,0 oO ° e o ® 60 ° oO e e 4,0 ° @ @ 2,0 i. ° & e 0,0 gt bop 6 4 8 12 16 20 y Figura 1.4. Cormparagao entre a distribuigdo de Poisson 1.27 ¢ 4 apro- ximagdo gaussiana 1.38 para p = 12. Como pode ser visto, mesmo para valor médio ndo muito alto, a aprorimagéo gaussiana é razodvel. 1.5. DISTRIBUICAO DE POISSON Ww Com frequéncia, ocorre que ne p nao sao comhecidos, enquanto que 0 valor médio 7 © y pode ser facilmente determinado. Finalmente, uma terceira vantagem 6 que a distribuigio de Poisson se torna simétrica para grandes valores de ys, Isto 6, se 4 >> 1, entéo y >> 1 para os valores de interesse ¢ pode ser mostrado® que a distribuic&o de Poisson pode ser escrita aproximadamente como onde 6=(y-p) © fw, y>> i. (1.32) A Figura 1.4 mostra a distribuigdo de Poisson para 4. = 12 calculada pela Equagao 1.27 e também pela aproximacio 1.32. Conforme pode ser visto, a aproximacdo é bastante aceitével, mesmo para os valores menores de y ¢ @ distribuigdo é razoavelmente simétrica em relagao ao valor médio p. Para. ys da ordem de algumas dezenas ou maior, a Equagio 1.32 6 uma boa aproximag&o e a distribuigéo de Poisson é bastante simétrica. A distribuigado de Poisson 1,32 pode ser escrita como Lea pee Plu) = gee BCE) (1.33) onde op = Vil. A distribuigao gaussiana de probabilidades é definida por er} cee? GY) = olin ; (234) onde ¢ pode assumir um valor qualquer que é independente de p. Isto constitui uma generalizagio da distribuig&o de Poisson 1.33. A fungéo gaussiana de densidade de probabilidade 6 uma generalizagaio da distribuigdo 1.34, para a qual y é uma varidvel contima. °Q5 edlculos sio sugerides na Questo 2. 18 CAPITULO 1. PROBABILIDADES 1.6 Aplicagdes da distribuicao de Poisson A distribuigo de Poisson vale para o caso em que um grande mimero de processos idénticos (m >> 1) € observado", sendo que em cada proceso existe uma probabilidade pequena e bem definida p << 1, de ocorrer wm determinado fenémeno. Nestas condigdes o niimero y de ocorréncias do fenémeno segue uma distribuigéio de Poisson. Isto é, a probabilidade P(y) para y ocorréncias do fenémeno é dada pela distribuicdo de Poisson. O modelo basico acima deserito é aplicavel a muitas situagdes prati- cas, nas quais ocorram grandes populacées de sistemas idénticos. Como exemplos de tais sistemas podem ser mencionados Atomos, nticleos atémicos, particulas elementares, insetos, bactérias, virus, seres huma- nos, animais, insetos, produtos industriais, produtos agricolas, constru- cGes e quaisquer coisas que sejam amostras de grandes populacdes. Se um determinado fendmeno tem uma probabilidade pequena de ocorrer, mas a populagie 6 grande, o ntimero de ocorréncias deve seguir uma distribuicao de Poisson, Um exemplo tipico 6 0 decaimento’! de niclens atomicos radioati- vos. Geralmente, uma amostra radioativa tem um niimero m muito grande de nicleos ativados que podem se desintegrar. Cada niicleo tem um probabilidade definida p de se desintegrar no intervalo de tempo At. O nimero médio de decaimentos neste tempo é p = np. Durante o tempo At, podem ser observados y decaimentos, sendo que as probabilidades para cada y so dadas pela distribuigde de Poisson. Se p € 0 valor médio verdadeiro para o ntimero de eventos, a probabilidade Fy de obter um resultado yp no intervalo un~8(u-8) 19s n processos idénticos so admitides como equivalentes 5 n repetigdes de um mesmo processo, '' Transmutagao nuclear com emissiio de radtagao. 16. APLICACOES DA DISTRIBUICAO DE POISSON 19 Pa(5) x 100 (%) a a 0 6 %@ B86 46 be Figura 1.5. Probabilidade P,(5) de que | yo — | sefa menor que 6, para 2 valores diferentes de ye também no limite up —> co. Os valores indicados explicitamente sio para este titimo caso. A Figura 1.5 mostra valores de Fy em fungio de 5 para y = 10, p= 40 e também para yp —> co. O desvio padrao é o = Vf. O resultado yp de uma tnica observagio pode ser entendido como uma medida ov determinagéo experimental do valor médio verdadeiro zB. Para p>>1 e d=, a inequagio 1.35 equivale a [e-wl=|yrul> 1, 0 desvio padrao pode ser calculado aproximadamente como a= fi = Soo (para yy >>> 1) (1.39) Mais exatamente, pode ser mostrado! que, para js >> 1, 0 intervalo definido por 3 3 vin- 3595 ty (1.40) tem aproximadamente 99,7% de probabilidade de ser correto. Assim, 0 erro na aproximagdo 1.39 é desprezivel, no caso ./ji = ie >> 1 Exemplo 6. Uma amostra de material radioativo contém nm niicleos ativos. Cada nicleo tem uma probabilidade definida p, de emitir uma particnla-c durante um intervalo de tempo de 1 minuto. As pat- ticulas-a sio emitidas em diregdes ao acaso. Assim, se um detetor Geiger é colocado a uma determinada distancia da amostra radioativa, cada particula-a tem probabilidade p, de atingir o Geiger. Como a emissSo de particula-a ¢ detegado pelo Geiger s40 precessos independentes, a probabilidade de que uma particula-a seja emitida em 1 rninute e detetada pelo Geiger é 0 produto das proba- bilidades (p = py po). Se n>>1 e p<<1 a probabilidade de que em 1 minuto sejam detectadas y partfculas-o deve ser dada pela distribuigde de Poisson definida pela Equacao 1.27. No caso em que 0 valor médio = np 6 um mimero muito grande, a distribuicée gaussiana 1.33 pode ser usada como aproximagao para a distribuigdo de Poisson 1.27 1203s cdleulos sio indicados na Questo 3. 16, APLICACOES DA DISTRIBUICAO DE POISSON Qt Exemplo 7. A probabilidade de uma peasca contrair uma doenga X no periodo de 1 ano é 107% (wma chance em 100.000). Numa popu- lagiio de 17 milhGes de habitantes, as probabilidades para o mimeros de casos devem ser dadas pela distribuigao de Poisson com valor médio je= 170 com desvio padrio o = V/171 ¥ 13. Uma questao importante & conhecer 0 mimero de casos que podem ocorrer no periodo de 1 ano, em condigdes normais, Os resultados mostrados na Figura 1.5 permitem obter a probabili- dade de que ccorram y casos, tais que B-b6> 1, a distribuigdo de Poisson pode ser aproximada como ran Pea) eee BE onde 5 = (yu) ou, como ae B-side Demonstrar a Equagdo 1.32, desprezando termos de ordem (1/1)? no resultado acima e verificando que o termo (6/2~) no é muito relevante : 1 O42 2 eu eS eh, Puy) = Jaan” vine 3. Utilizando a aproximagio VIF a % L+2/2+-+--, mostrar que o desvio padrao @ pode ser escrito como 1 Ve ai Demonstrar que, com confianga de aproximadamente 99,7%, 3 3 Vii - 350 < Vet. o onde 7=p—Y- Capitulo 2 Probabilidades Distribuicdes para varidvel continua Resumo Neste capttulo sdo apresentados os conceitos de distribuigdo de proba- bilidades para varidvel continua, fungio de densidade de probabilidade e histograma, Alguns exemplos de importantes funcdes de densidade de probabilidade sito apresentados, iais como distribuigdes gaussiana, loreniziana, retangular e triangular, 2.1 Varidvel continua Frequentemente, ocorre que um proceso aleatério y pode resultar em um niimero muitissimo grande de valores possiveis: Me Yas Yi Yaa, Ye M>>ol. (2.2) ee ee M valores possiveis A deserigao das probabilidades P(¥;) ov das frequéncias N(¥;) ou das frequéncias relativas F(Y¥;) para cada valor Y; se torna incon- veniente ou mesmo invidvel, devido ao grande nimero de quantidades. Além disso, para determinar experimentalmente N(Y,) ou F(Y;) se- ria necessério repetir o processo N vezes, com N >> M e isto também pode ser completamente invidvel. 23 24 CAPITULO 2. PROBABILIDADES As dificuldades mencionadas podem ser praticamente resolvidas de maneira simples por meio de redefinigio de evento!, a partir de um intervalo com centro em y, e comprimento Ay. Este intervalo pode ser representado por { x; Ay}. Por definigao, acorre o evento yw seo resultado do processo é uma quantidade Y; tal que A w- DBeucns H 22) Os valores de y, € Ay devent ser tais que qualquer valor possfvel Y, std incluide em apenas um intervals. A condig&o de normalizagio, valor médio e desvia padrie sao exa- tamente iguais ae caso de distribuigdes discretas mais simples, ¢ s30 dados pelas Equag&es 1.8, 1.13 e 1.44. A maior vantagem da definigdo acima é que ela se aplica igualmente bem a varidueis continuas ¢ varidveis discretas. © caso de maior interesse neste texto, é aqnele em que y resulta de um processo de medigéo, nos quais os valores possiveis ¥, sdo discretos. Em outras palavras, a grandeza fisica y pode ser continua, mas os resultados Y; de medidas de y constituem um conjunto discreto de valores. Isto se deve ao fato que os instrumentos de medicgdo 86 podem fornecer leituras com um mimero definido de algarismos. Por exemplo, uma régua comum de 300mm sé admite a leitura do mimero inteiro de milfinetros com estimativa de décimo de milimetro. Portanto, s6 existem 3000 resultados possiveis para leitura nesta régua, mesine que © comprimento a ser medido seja uma grandeza contima. Entendendo por evento, qualquer resultado no intervalo {y; Ay}, 40 importa muito se @ varidvel é continua ou discreta, desde que cada intervalo conterha um nireero muito grande de resultados possiveis- No que segue, serd admitido que a varidvel y 6 uma varidvel continua, mesmo quando é varidvel discreta que pode assumir um pimerg muito grande de valores préximos entre si. Com frequéncia, este caso 6 0 que ocorre medigao de grandezas fisicas, como mostrado no exemplo a segnir. ‘Também podem ser aproximadas como continuas, a8 varidveis tnéetraz, quando os valores inteiros possiveis sio muitissimo grandes. ‘No Capitulo 1, cada resultado numérico possivel é definide como um evento. 2.2. FUNCAO DENSIDADE DE PROBABILIDADE 25 Exemplo 1. A diferenca de potencial elétrico nos terminais de umia pilha comum pode ter qualquer valor entre 0 ¢ 1,7 Volts (aproxima- damente), dependendo de estado de uso, temperatura ¢ outros fatores. Se a tensio na pilha 6 medida com um multimetro digital de “4 e 1/2 digitos”, podem resuliar as seguintes leituras em Volts: 08,0000; 6.0001: 0,0002; ---; 1,6998; 1,6999; 1.7000: 17000 valores possiveis Come pode ser visto, a grandeza fisica y (tensdo da pilha) pode ser continua, mas o resultado da medida seré um dos 17000 valores possiveis, Isto 6, og resultados do proceso de medicéio constituem um conjunte discreto. Para descrever resultados de muitas medidas (N’ >> 1), pode ser conveniente entender a varidvel como continua, definindo evento a par- tir de intervalos. Por exemplo, para elaborar o histograma dos resul- tados para um ¢erto niimero de pilhas, devem ser definidos intervalos convenientes, como 6 discutido na Segdo 2.5, a seguir. 2.2 Fungao densidade de probabilidade Para varidvel continua, cada evento pode ser definide a partir de um intervalo {%; Ay}, comcentroem yw e largura Ay. Assim, pode-se admitir como apreximacio que y pode ter m valores possiveis: we Yr (2.3) m eventos possiveis Cada evento y; pode ocorrer com uma probabilidade P(y,) = AP, . Se Ay € pequeno, as prababilidades dos sein resultados ¥5 no intervalo devem ser aproximadamente iguais (© g). Assim, a proba- bilidade AP, deve ser aproximadamente pM; , onde M; ¢ 0 nimero de resultados possiveis no intervalo. 26 CAP{TULO 2. PROBABILIDADES Por outro lado, em situagées usuais, o ntimero Af, de eventos pos- siveis num intervalo deve ser proporcional ao comprimento Ay , desde que este intervalo seja muito pequeno. Isto é, a variagéo Ay na varié- vel y deve ser muito pequena, mas suficientemente grande para conter um muimero grande de resultados possiveis. Nestas condigGes, a proba- bilidade AP, deve ser proporcional a Ay e a quantidade AF, Hy) = Ay {para Ay pequeuo) (2.4) deve ser independente de Ay , e assim, deve depender somente de y;. Em resumo, a quantidade H(y,) pode ser entendida como uma fungdo de y; somente, sendo independente do intervalo Ay. A fungio H(y,) ¢ chamada fungdo densidade de probabilidade on simplesmente, fungéo de probabilidade. Se H(y,) 6 conhecida, a pro- babilidade de ocorrer um resultado no intervalo pequeno { yi; Ay} é Py.) SAP, & Hu) Ay. (2.5) Quando é possivel considerar o limite Ay + 0, Ay e AP; sao infinitesimais e podem ser indicados por dy e dP, respectivamente. Neste caso, o indice i pode ser omitido, significando que H(y;) pode ser caleulada para qualquer valor de y ¢ a Equac4o 2.5 pode ser escrita como iP = Aly) dy (26) on ap Hy) = (27) Em N repetigdes de um proceso real, a aproximacio experimental para a probabilidade AP, = P(y,) é a frequéncia relativa F(y.) Assi, Hey) = ae (2.8) é uma aproximagéo experimental para a funcao densidade de probahi- lidade, em cada ponto %. Um exemplo importante de fungao densidade de probabilidade é a fungao gaussiana, discutida na Secio 2.4. 2.3. VALOR MEDIO E DESVIO PADRAO 27 2.3 Valor médio e desvio padrao ‘A probabilidade P(a,b) de obter umn resultado y no intervalo a Pw) = 2 Aly) Ay. (2.9) Pew >a No limite Ay -» 0, a soma acima é a integral de H(y) entre a e 6, 5 Pad) = f Away. (2.10) A condigéo de normalizagéo 1.8 pode ser escrita como too P(-o0, $00) = f BW)dy = 1. (211) © valor médio verdadeiro y de uma distribuigéa 6 dado pela Equa- co 1.13, que neste caso pode ser escrita como m m we WAR = Dw Alu) Ay. (2.12) ih i=l No limite Ay — 0, esta equacdo pode ser escrita como aa i f yHly) dy. (2.13) co De mansira andloga, pode ser mostrade que a varidncia o”, dada pela expresso 1.14, pode ser escrita como o = [e-Bay O desvio padrao é a raiz quadrada positiva da varidncia (

Você também pode gostar