P. 1
Glossário de estatística - completo

Glossário de estatística - completo

|Views: 712|Likes:
Publicado portamosai

More info:

Published by: tamosai on Sep 08, 2011
Direitos Autorais:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOC, PDF, TXT or read online from Scribd
See more
See less

07/18/2013

pdf

text

original

GLOSSÁRIO DE ESTATÍSTICA

FABIANA R. RAVAGNANI LUCIANA CATELAN

GLOSSÁRIO DE ESTATÍSTICA
1ª Edição 2002

NETRA São Paulo

NETRA (Núcleo de Estudos de Tradução) 2002 CENTRO UNIVERSITÁRIO IBERO-AMERICANO Av. Brigadeiro Luis Antônio, 871 CEP: 01317-001 Tel: 3188-670

CENTRO UNIVERSITÁRIO IBERO-AMERICANO CURSO DE LETRAS – TRADUTORES E INTÉRPRETES 5º PERÍODO – 1º SEMESTRE – MANHÃ PROFESSORA RESPONSÁVEL: VALDEREZ CARNEIRO DA SILVA COORDENADORA DO NETRA: VALDEREZ CARNEIRO DA SILVA GLOSSÁRIO EXTRAÍDO A PARTIR DO RELATÓRIO TÉCNICO Nº 141/2001 DME-IM-UFRJ SOB O TÍTULO SPACE-TIME MODELING OF NONNEGATIVE VARIABLES WITH MASS POINT AT ZERO DE LUIS GUILLERMO COCA VELARDE, HÉLIO S. MIGON E BASÍLIO DE B. PEREIRA

FABIANA R. RAVAGNANI LUCIANA CATELAN

atenção e boa vontade. E também não podemos nos equecer daqueles que nos ajudaram na elaboração e finalização deste: os nossos amigos mais próximos e queridos professores. que com tanta paciência.Agradecemos ao nosso perito Luis Guilhermo. colaborou com o desenvolvimento deste trabalho. .

..............................................................................................................................................................................................146 Letra U....................................................................................................................................................................................................................................................................................................70 Letra J............................................108 Letra O.................................................................................................................................85 Letra M........................................................................................................................XVII Sumário Português-Inglês...................................................................................................................................................XIII Prefácio......................................................................................57 Letra H............................................................................................................79 Letra K.........................................................................................................................................................................................................117 Letra P.................................19 Letra D........................................................................................................................................................................................................................................................................132 Letra S.................................................................................................................................10 Letra C..............LIX Letra A............................................................130 Letra R.....................................................................................................................................................32 Letra E.......................................................XV Sumário Inglês-Português.....151 Letra W..............................................154 XI ..........................................................49 Letra G.....137 Letra T............................................................1 Letra B................................................................................................................................................................................ÍNDICE Apresentação .............................................................................................................................................................................................65 Letra I.............................................................................................................................40 Letra F............................................................149 Letra V..........................................................................................................................................................................................................................................................................................................95 Letra N..............................................................................................................................................................................................................................................122 Letra Q...82 Letra L ...................................................................................................................................................................................

..............................159 Dados do informante..................................................................................................................................................................... 161 .....................................................................................................158 Bibliografia..............................................................................................................................................Letra X .......................................................................................................157 Letra Z ...................................................................156 Letra Y...........

APRESENTAÇÃO Esse glossário de Estatística foi elaborado a partir de diversas fontes como livros didáticos. apostilas e aulas que englobam os campos de estudos das áreas biológicas. são os mais recorrentes. segundo ele. .500 verbetes encontrados nos materiais que pesquisamos. que. exatas e também humanas. Entre 1. O maior objetivo deste trabalho é tentar auxiliar estudantes. professores e leigos sobre o assunto. foram escolhidos pelo nosso perito apenas 526. para um melhor entendimento de termos estatísticos presentes em estudos específicos e também presentes no cotidiano.

PREFÁCIO A Estatística é uma área que está bastante difundida nos diversos campos do conhecimento humano. Por outro lado. dificulta a leitura dos textos técnicos entre os próprios estudantes e usuários da Estatística. no governo. O presente trabalho é um esforço para elaborar um glossário que reúna os vocábulos e expressões de uso freqüente e os de recente aparição na literatura estatística. em administração. tendo aplicações relevantes na ciência. na indústria. a inexistência de um material que contenha uma breve explicação ou significado de alguns vocábulos ou expressões. como conseqüência da grande quantidade de abordagens. Desta forma. com o objetivo de ajudar ao melhor entendimento de um texto estatístico. é natural que a mídia apresente diariamente grande quantidade de informação estatística incluindo expressões técnicas próprias da área na linguagem das pessoas comuns. métodos e ferramentas na área. na medicina e em toda tarefa do dia a dia. Luis Guillermo Coca Velarde .

SUMÁRIO INGLÊS/PORTUGUÊS A Absolute Deviation Absolute error Absolute value function Absorving Markov chain Absorving state Accelerated testing Acceptance region Accuracy Additive model Additivity Aggregation AIC (Akaike Information Criteria) Algorithm Almost certain Alternative hypotheses Analysis of covariance Analysis of variance Ancillary statistic Arrhenius model Asymptotic confidence interval Asymptotic distribution Asymptotic Normality Asymptotic tests Asymptotic tests of hypothesis Desvio absoluto Erro absoluto Função de valor absoluto Cadeia de Markov absorvente Estado absorvente Teste acelerado Região de aceitação Acuracia Modelo aditivo Aditividade Agregação AIC (Critério de Informação de Akaike) Algoritmo Quase certo Hipótese alternativa Análise de covariância Análise de variância Estatística ancilar Modelo de Arrhenius Intervalo de confiança assintótico Distribuição assintótica Normalidade assintótica Testes assintóticos Testes assintóticos de hipótese 4 4 4 4 4 5 5 5 6 6 6 7 7 2 2 2 2 2 2 3 3 3 3 3 .

Asymptotic theory Attribute Autocorrelation Autocorrelation coefficient Autocorrelation function Autocovariance function Autoregression Autoregressive factor Autoregressive model Average Teoria assintótica Característica. Atributo Autocorrelação Coeficiente de autocorrelação Função de autocorrelação Função de autocovariância Auto-regressão Fator auto-regressivo Modelo auto-regressivo Promédio 7 7 7 7 8 8 8 8 9 9 B Back-fitting algorithm Backward elimination Bartlett’s test Bayes decision theory Bayes’ estimation Bayes factor Bayes risk Bayes sequential nature Bayes solution Bayes theorem Bayesian approach Bayesian inference Behrens-Fisher test Bernoulli distribution Bernoulli random variable Bernoulli trial Algoritmo de back-fitting Eliminação backward Teste de Bartlett Teoria de decisão de bayesiana Estimação de Bayes Fator de Bayes Risco de Bayes Natureza seqüencial do teorema de Bayes Solução de Bayes Teorema de Bayes Abordagem bayesiana Inferência bayesiana Teste de Behrens e Fisher Distribuição de Bernoulli Variável aleatória Bernoulli Experimento de Bernoulli 12 12 13 13 13 13 14 14 14 11 11 11 11 12 12 12 .

Best estimator Beta distribution Beta-binomial distribution Bias BIC (Bayesian Information Criteria) Bilinear model Bimodal distribution Binary data Binomial distribution Binomial random variable Birth and death process Bivariate binary regression Bivariate distribution Blackwell’s theorem Bonferroni inequality Bootstrap method Box and Jenkins model Boxplot Brownian motion process Melhor estimador Distribuição Beta Distribuição beta-binomial Vício BIC (Critério de Informação Bayesiana) Modelo bilinear Distribuição bimodal Dados binários Distribuição binomial Variável aleatória binomial Processo de vida e morte Regressão binária bivariada Distribuição bivariada Teorema de Blackwell Desigualdade de Bonferroni Método de bootstrap Modelo de Box e Jenkins Diagrama de caixa Processo de movimento browniano 14 15 15 15 15 15 16 16 16 16 17 17 17 17 17 18 18 18 18 C Canonical correlation Canonical link CAR (conditional autoregressive) Case-control study Cauchy distribution Censored data Censoring Central limit theorem Characteristic root Correlação canônica Ligação canônica CAR (condicional auto-regressivo) Estudo de caso-controle Distribuição de Cauchy Dados censurados Censura Teorema do limite central Raiz característica 20 20 21 21 21 21 22 22 22 .

Chebychev inequality Chi-square distribution Choleski decomposition Classical approach Coefficient of variation Cohort study Collinearity Complementary log-log Complete families of distributions Completeness of statistic Component of variance Composite hypothesis Conditional density function Conditional independence Conditional likelihood Conditional posterior distributions Conditional probability Confidence coefficient Confidence interval Conjugate family of distributions Consistent estimator Continuity correction Continuous random variable Control Correlation Correlation coefficient Covariance Covariance function Covariate Cramer-Rao inequality Desigualdade de Chebychev Distribuição Chi-quadrada Decomposição de Choleski Abordagem clássica Coeficiente de variação Estudo cohorte Colinearidade Log-log complementar Famílias completas de distribuição Completitude da estatística Componente de variância Hipótese composta Função de densidade condicional Independência condicional Verossimilhança condicional Distribuições a posteriori condicionais Probabilidade condicional Coeficiente de confiança Intervalo de confiança Família conjugada de distribuições Estimador consistente Correção por continuidade Variável aleatória contínua Controle Correlação Coeficiente de correlação Covariância Função de covariância Covariável Desigualdade de Cramer e Rao 22 23 23 23 23 23 24 24 24 24 24 25 25 25 25 26 26 26 26 27 27 27 27 28 28 28 28 29 29 29 .

Critical region Cross-sectional study Curve fitting Curvilinear regression Curvilinear trend Cut-off Cycle Região crítica Estudo cross-sectional Ajuste de curva Regressão curvilínea Tendência curvilínea Ponto de corte Ciclo 29 30 30 30 30 31 31 D De Finetti’s representation theorem Decile Decision function Decision rule Decision space Decision theory Decomposition Degree of freedom Density function Dependent variable Descriptive statistics Deterministic process Deviance function Dichotomy Dirichlet distribution Discrepancy function Discriminatory analysis Dispersion Distribution free method Distribution function Double exponential distribution Teorema de representação de De Finetti Decil Função de decisão Regra de decisão Espaço de decisão Teoria de decisão Decomposição Grau de liberdade Função de densidade Variável dependente Estatística descritiva Processo determinístico Função de deviance Dicotomia Distribuição de Dirichlet Função de discrepância Análise discriminante Dispersão Método livre de distribuição Função de distribuição Distribuição exponencial dupla 33 33 33 33 34 34 34 34 35 35 35 35 36 36 36 36 36 37 37 37 38 .

Dummy variable Durbin-Watson statistic Dynamic model

Variável dummy ou Variável latente Estatística de Durbin e Watson Modelo dinâmico

38 39 39

E
Efficiency Efficient estimator Eigenvalue Elementary unit Elimination of parameters EM algorithm Empirical Bayes estimator Empirical Bayes procedure Empirical distribution function Equally correlated distribution Equilibrium Ergodic chain Ergodicity Erlangian distribution Error Estimate Estimation Estimator Event Evolutionary process Exact statistical method Exchangeability Expected value Experimental study Exploratory analysis Eficiência Estimador eficiente Autovalor Unidade elementar Eliminação de parâmetros Algoritmo EM Estimador de Bayes empírico Procedimento de Bayes empírico Função de distribuição empírica Distribuição de correlação constante Equilíbrio Cadeia ergódica Ergodicidade Distribuição de Erlang Erro Estimativa Estimação Estimador Evento Processo evolucionário Método estatístico exato Permutabilidade Valor esperado Estudo experimental Análise exploratória 45 45 46 46 46 46 47 47 41 41 41 41 42 42 42 42 43 43 43 43 44 44 44 44 45

Exponential distribution Exponential family Exponential random variable Exponential smoothing Extrapolation Extreme values Extreme value density

Distribuição exponencial Família exponencial Variável aleatória exponencial Suavização exponencial Extrapolação Valores extremos Densidade de valor extremo

47 47 48 48 48 48 48

F
Factor Factor matrix Factor pattern Factorial analysis Factorial design False positive F-distribution Fellegi’s method Fiducial distribution Fiducial inference Filter Finite Markov chain Finite population correction First passage time Fisher information Fitted value Follow-up Forecasting Forward selection Fator Matriz de fatores Padrão de fatores Análise fatorial Experimento fatorial Falso positivo Distribuição F Método de Fellegi Distribuição fiducial Inferência fiducial Filtro Cadeia de Markov finita Correção por população finita Primeiro tempo de passagem Informação de Fisher Valor ajustado Follow-up Previsão Seleção forward 50 50 50 51 51 51 51 51 52 52 52 52 53 53 53 53 54 54 54

Fourier analysis Fourier series Frequency Frequency curve Frequency distribution Frequency function Frequency poligon Frequency surface Frequency table Frequency theory of probability Frequentist approach Frequentist theory

Análise de Fourier Série de Fourier Freqüência Curva de freqüência Distribuição de freqüência Função de freqüência Polígono de freqüência Superfície de freqüência Tabela de freqüência Teoria freqüentista de probabilidade Abordagem freqüentista Teoria freqüentista

54 54 54 55 55 55 55 56 56 56 56 56

G
Gabriel’s test Galton ogive Game theory Gamma distribution Gamma function Gamma random variable Gaussian distribution Gauss-Seidel method General factor Generalized additive model 59 Generalized inverse Generalized least squares estimator Generalized linear model Generalized maximum likelihood estimator Inversa generalizada Estimador de mínimos quadrados generalizados Modelo linear generalizado Estimador de máxima verossimilhança generalizada 61 60 60 60 Teste de Gabriel Ogiva de Galton Teoria dos jogos Distribuição gama Função gama Variável aleatória gama Distribuição gaussiana Método de Gauss e Seidel Fator geral Modelo aditivo generalizado 58 58 58 58 59 59 59 59 59

Generating function Geometric distribution Geometric mean Geometric random variable Gibbs sampler algorithm Gompertz curve Goodness of fit Graeco-Latin square Graphical estimator Graphical inspection Grid Group Group comparison Growth curve Grade Grupo

Função geradora Distribuição geométrica Média geométrica Variável aleatória geométrica Algoritmo do amostrador de Gibbs Curva de Gompertz Bondade de ajuste Quadrado Greco-Latino Estimador gráfico Inspeção gráfica 63 64 Comparação de grupos Curva de crescimento

61 61 62 62 62 62 62 63 63 63

64 64

H
Harmonic mean Hazard Hazard function Hierarchical linear models Hierarchical priors Histogram Homogeneity Homoscedasticity Hypergeometric distribution Risco Função de risco Modelos lineares hierárquicos Prioris hierárquicas Histograma Homogeneidade Homocedasticidade Distribuição hipergeométrica 68 Média harmônica 66 66 66 66 67 67 67 68

Hypergeometric random variable Hyperparameter Hypothesis testing Variável aleatória hipergeométrica Hiperparâmetro Teste de hipótese 68 69 69 I Identifiability Identity function Implementation Importance sampling Incomplete blocks Incomplete multiresponse design Independence Independence frequency Independent random variables Independent trials Independent variable Index number Indicator function Inefficient statistic Infinite population Input/output process Integer programming Integrated data Interaction Intercorrelation Interpolated value Interpolation Interquartile range Interval estimation Identificabilidade Função identidade Implementação Amostragem por importância Blocos incompletos Experimento de multi-resposta incompleto Independência Freqüência independente Variáveis aleatórias independentes Ensaios independentes Variável independente Número índice Função indicadora Estatística ineficiente População infinita Processo de entrada/saída Programação inteira Dados agregados Interação Intercorrelação Valor interpolado Interpolação Distância interquartílica Estimação por intervalos 71 71 71 71 72 72 72 73 73 73 74 74 74 74 75 75 75 75 75 76 76 76 76 77 .

Invariance Invariance method Inverse distribution Inverse function Inverse Gaussian distribution Irreducible Markov chain Isomorphism Invariância Método invariante Distribuição inversa Função inversa Distribuição gaussiana inversa Cadeia de Markov irredutível Isomorfismo 77 77 77 77 78 78 78 J Jackknife Jeffreys’ prior Jensen’s inequality Joint distribution Joint regression Joint sufficiency Jointly distributed random variables Jackknife Priori de Jeffreys Desigualdade de Jensen Distribuição conjunta Regressão conjunta Suficiência conjunta Variáveis aleatórias distribuídas conjuntamente 81 80 80 80 80 81 81 K Kendall’s tau (τ ) Kolmogorov axioms Kolmogorov-Smirnov test Kriging Kullback-Liebler information number Kurtosis Kronecker product of matrices Tau de Kendall (τ ) Axiomas de Kolmogorov Teste de Kolmogorov e Smirnov Krigagem Produto de Kronecker de matrizes Número de informação de Kullback e Liebler Kurtose 84 84 83 84 83 83 83 L .

Lag Lag correlation Lag covariance Lag regression Laplace approximation Laplace distribution Laplace transformation Latin square design Law of large numbers Law of small numbers Le and Zidek methodology Least squares estimators Least squares method Lehmann’s test Level map Level of significance Likelihood function Likelihood principle Likelihood ratio (LR) Likelihood ratio test Lindley’s paradox Linear estimator Linear growth model (LGM) Linear model Linear predictor Linear programming Link function Location model Location parameter Location-scale model Defasagem Correlação defasada Covariância defasada Regressão defasada Aproximação de Laplace Distribuição de Laplace Transformação de Laplace Experimento quadrado latino Lei dos grandes números Lei dos pequenos números Metodologia de Le e Zidek Estimadores de mínimos quadrados Método de mínimos quadrados Teste de Lehmann Mapa de níveis Nível de significância Função de verossimilhança Princípio de verossimilhança Razão de verossimilhança (RV) Teste da razão de verossimilhança Paradoxo de Lindley Estimador linear Modelo de crescimento linear (MCL) Modelo linear Preditor linear Programação linear Função de ligação Modelo de locação Parâmetro de local Modelo de locação-escala 86 86 86 86 86 86 87 87 87 87 88 88 88 88 88 89 89 89 89 90 90 90 91 91 91 91 91 91 92 92 .

Log link Logistic link Logistic regression Logit model Log-log transformation Log-normal distribution Log-normal random variable Longitudinal study Loss function Ligação logarítimica Ligação logística Regressão logística Modelo logito Transformação log-log Distribuição lognormal Variável aleatória lognormal Estudo longitudinal Função de perda 92 92 93 93 93 93 93 93 94 M Marginal density function Marginal distribution Marginal likelihood Marginal posterior distribution Marginal probability function Markov Chain Markov process Markov property Mass point at zero Matched samples Maximum likelihood estimator (MLE) Maximum likelihood method Mean Mean absolute deviation Mean of a random variable Mean squared error Measure of location Median Estimador de máxima verossimilhança Método de máxima verossimilhança Média Desvio absoluto médio Média de uma variável aleatória Erro quadrado médio Medida de locação Mediana 98 98 99 99 99 99 99 100 Função de densidade marginal Distribuição marginal Verossimilhança marginal Distribuição a posteriori marginal Função de probabilidade marginal Cadeia de Markov Processo de Markov Propriedade markoviana Ponto de massa em zero Amostras emparelhadas 96 96 96 96 97 97 97 97 98 98 .

Method of moments Metropolis-Hastings algorithm Mid-range Missing value Mixture of distributions Mode Model Model checking Model choice Model for binary response Model selection Moment Moment estimator Moment generating function Monotonic function Monte Carlo Markov Chain methodology Monte Carlo methods Most efficient estimator Most powerful test Moving average Método de momentos Algoritmo de Metrópolis e Hastings Semi amplitude Valor perdido Mistura de distribuições Moda Modelo Verificação do modelo Seleção de modelo Modelo para resposta binária Seleção de modelos Momento Estimador de momentos Função geradora de momentos Função monotônica Método de Monte Carlo em Cadeias de Markov (MCMC) Métodos de Monte Carlo Estimador mais eficiente Teste mais poderoso Média móvel 100 100 100 100 101 101 101 101 102 102 102 102 103 103 103 103 103 104 104 104 .

Multicollinearity Multinomial distribution Multinomial random variable Multiple decision methods Multiple decision problem Multiple Markov process Multiple regression Multiplicative effect Multivariate analysis Multivariate distribution Multivariate processes Multivariate regression model Mutually exclusive events Multicolinearidade Distribuição multinomial Variável aleatória multinomial Métodos de decisão múltipla Problema de decisão múltipla Processo markoviano múltiplo Regressão múltipla Efeito multiplicativo Análise multivariada Distribuição multivariada Processos multivariados Modelo de regressão multivariada Eventos mutuamente exclusivos 104 104 105 105 105 106 106 106 106 107 107 107 107 N Natural conjugate family of distributions Negative binomial distribution Negative definite matrix Negative moments Neighborhood system Neighboring criteria Neighboring effect Neighbors Nested hypothesis Newton-Raphson algorithm Neyman’s factorization criteria Neyman-Pearson lemma Neyman-Pearson theory Família conjugada de distribuições naturais Distribuição binomial negativa Matriz definida negativa Momentos negativos Sistema de vizinhança Critério de vizinhança Efeito de vizinhança Vizinhos Hipóteses encaixadas Algoritmo de Newton e Raphson Critério de fatorização de Neyman Lema de Neyman e Pearson Teoria de Neyma e Pearson 109 109 109 109 110 110 110 110 111 111 111 112 112 112 Negative binomial random variable Variável aleatória binomial negativa .

Noise Nominal scale Non-informative priors Nonrandom sample Nonsingular matrix Nonsingular distribution Normal aproximation to binomial Normal distribution Normal equations Normal random variable Normalizing transformation Nuisance parameters Null hypothesis Numerical integration methods Ruído Escala nominal Prioris não informativas Amostra determinística ou Amostra não aleatória Matriz não singular Distribuição não singular Aproximação normal para binomial Distribuição normal Equações normais Variável aleatória normal Transformação normalizadora Parâmetros de distúrbio Hipótese nula Métodos de integração numérica 112 113 113 113 114 114 114 114 115 115 115 115 116 116 O Observable variable Observational study Odds Odds ratio Ogive One-sided test Variável observável Estudo observacional Chances Razão de chances Ogiva Teste unilateral 118 118 118 118 118 118 .

Operating characteristic curve Operating characteristic function Optimum linear predictor Order of a Markov chain Order statistics Ordered series Ordinal scale Orthogonal matrix Outlier Over-dispersion Curva operativa-característica Função operativa-característica Preditor linear ótimo Ordem de uma cadeia de Markov Estatística de ordem Série ordenada Escala ordinal Matriz ortogonal 119 119 119 119 120 120 120 120 Valor discrepante Super dispersão 120 121 P Parameter Parameter estimation Pareto distribution Pascal random variable Pearson residual Percentile Pivotal statistic Point pattern Poisson distribution Poisson process Poisson random variable Polynomial regression Positive definite matrix Positive random variable Posterior distribution Power function Precision Precision matrix Parâmetro Estimação de parâmetro Distribuição de Pareto Variável aleatória Pascal Residual de Pearson Percentil Estatística pivotal Padrão pontual Distribuição de Poisson Processo de Poisson Variável aleatória de Poisson Regressão polinomial Matriz definida positiva Variável aleatória positiva Distribuição a posteriori Função poder Precisão Matriz de precisão 123 123 123 124 124 124 124 125 125 125 125 125 125 126 126 126 126 127 .

Prediction Prior distribution Prior information Prior mean Probability Probability axioms Probability density function Probability distribution Probit model Prospective study P-value P-valor Previsão Distribuição a priori Informação a priori Média a priori Probabilidade Axiomas de probabilidade Função de densidade de probabilidade Distribuição de probabilidade Modelo probito Estudo prospectivo 127 127 127 127 127 128 128 128 128 129 129 Q Quadratic form Quartile Quartil Fórmula quadrática 131 131 R Random effect Random sample Random selection Random variable Randomization Randomized blocks Range Rao-Blackwell theorem Regression analysis Efeito aleatório Amostra aleatória Seleção aleatória Variável aleatória Aleatorização Blocos aleatorizados Amplitude Teorema de Rao e Blackwell Análise de regressão 133 133 133 133 133 134 134 134 135 .

Regressor Reliability Replication Residual Retrospective study Risk Robustness Risco Regressor Confiabilidade Replicação Resíduo Estudo retrospectivo Robustez 135 135 135 135 136 136 136 S Sample Sample mean Sample median Sample range Sample space Sample standard deviation Sample variance Sampling distribution Sampling fraction Sampling with replacement Scale model Scale parameter Scatterplot Score function Seasonality Sensitivity Simple hypothesis Simulation methods Simulation model Singular matrix Skewness Smoothing Amostra Média amostral Mediana amostral Amplitude amostral Espaço amostral Desvio padrão amostral Variância amostral Distribuição amostral Fração de amostragem Amostragem com reposição Modelo de escala Parâmetro de escala Gráfico de dispersão Função escore Sazonalidade Sensibilidade Hipótese simples Métodos de simulação Modelo de simulação Matriz singular Simetria Alizamento 138 138 138 138 138 138 138 139 139 139 140 140 140 140 140 141 141 141 141 141 141 142 .

Snedecor F distribution Space-time atributes Space-time model Spatial dependence Spatial patterns Specificity Square root transformation Standard deviation Standard normal random variable Stationary process Statistic Statistical hypothesis Stepwise regression Student t distribution Sufficiency Sufficient statistic Symmetric matrix Distribuição F de Snedecor Características espaço-temporais Modelo espaço-temporal Dependência espacial Padrões espaciais Especificidade Transformação da raiz quadrada Desvio padrão Variável aleatória normal padronizada Processo estacionário Estatística Hipótese estatística Regressão stepwise Distribuição t de Student Suficiência Estatística suficiente Matriz simétrica 142 142 142 142 142 143 143 143 143 143 144 144 144 145 145 145 145 T Tchebychev’s inequality Teste statistic Time series Transition probability Type I error Type II error Desigualdade de Tchebychev Estatística de teste Série temporal Probabilidade de transição Erro tipo I Erro tipo II 147 147 147 147 148 148 U .

Unbiassed estimator Uniform distribution Uniform random variable Estimador não viciado Distribuição uniforme Variável aleatória uniforme 150 150 150 V Vague prior Variability Variable Variance Variance-covariance matrix Variogram Priori vaga Variabilidade Variável Variância Matriz de variância-covariância Variograma 152 152 152 152 153 153 W Weibull distribution Wilcoxon’s test Wishart distribution Distribuição de Weibull Teste de Wilcoxon Distribuição de Wishart 155 155 155 X Y Z .

SUMÁRIO PORTUGUÊS/INGLÊS A Abordagem bayesiana Abordagem clássica Bayesian approach Classical approach 23 13 .

Abordagem freqüentista Acuracia Aditividade Agregação AIC (Critério de Informação de Akaike) Ajuste de curva Aleatorização Algoritmo Algoritmo de back-fitting Algoritmo de Newton e Raphson Algoritmo EM Alizamento Amostra Amostra aleatória Amostra determinística Amostra não aleatória Amostragem com reposição Amostragem por importância Amostras emparelhadas Amplitude Amplitude amostral Frequentist approach Accuracy Additivity Aggregation AIC (Akaike Information Criteria) Curve fitting Randomization Algorithm Back-fitting algorithm Newton-Raphson algorithm EM algorithm Smoothing Sample Random sample Nonrandom sample Nonrandom sample Sampling with replacement Importance sampling Matched samples Range Sample range 56 3 3 3 4 30 133 4 11 100 111 62 42 142 138 133 113 113 139 71 98 134 138 Algoritmo de Metrópolis e Hastings Metropolis-Hastings algorithm Algoritmo do amostrador de Gibbs Gibbs sampler algorithm Análise de covariância Análise de Fourier Análise de regressão Análise de variância Análise discriminante Analysis of covariance Fourier analysis Regression analysis Analysis of variance Discriminatory analysis 4 54 135 5 36 .

Análise exploratória Análise fatorial Análise multivariada Aproximação de Laplace Aproximação normal para binomial Atributo Autocorrelação Auto-regressão Autovalor Axiomas de Kolmogorov Axiomas de probabilidade Exploratory analysis Factorial analysis Multivariate analysis Laplace approximation Normal approximation to binomial Attribute Autocorrelation Autoregression Eigenvalue Kolmogorov axioms Probability axioms 47 51 106 86 114 7 7 8 41 83 128 B BIC (Critério de Informação Bayesiana) BIC (Bayesian Information Criteria) Blocos aleatorizados Blocos incompletos Bondade de ajuste Randomized blocks Incomplete blocks Goodness of fit 15 134 72 62 C Cadeia de Markov Cadeia de Markov absorvente Cadeia de Markov finita Cadeia de Markov irredutível Cadeia ergódica CAR (condicional auto-regressivo) Característica Características espaço-temporais Censura Chances Markov Chain Absorving Markov chain Finite Markov chain Irreducible Markov chain Ergodic chain CAR (conditional autoregressive) Attribute Space-time atributes Censoring Odds 97 2 52 78 43 21 7 142 22 118 .

Ciclo Coeficiente de autocorrelação Coeficiente de correlação Coeficiente de confiança Coeficiente de variação Colinearidade Comparação de grupos Completitude da estatística Componente de variância Confiabilidade Controle Correção por continuidade Correção por população finita Correlação Correlação canônica Correlação defasada Covariância Covariância defasada Covariável Critério de fatorização de Neyman Critério de vizinhança Curva de crescimento Curva de freqüência Curva de Gompertz Curva operativa-característica Cycle Autocorrelation coefficient Correlation coefficient Confidence coefficient Coefficient of variation Collinearity Group comparison Completeness of statistic Component of variance Reliability Control Continuity correction Finite population correction Correlation Canonical correlation Lag correlation Covariance Lag covariance Covariate Neyman’s factorization criteria Neighboring criteria Growth curve Frequency curve Gompertz curve Operating characteristic curve 31 7 28 26 23 24 64 24 24 135 28 27 53 28 20 86 28 86 29 112 110 64 55 62 119 D Dados agregados Dados binários Dados censurados Decil Integrated data Binary data Censored data Decile 75 16 21 33 .

Decomposição Decomposição de Choleski Defasagem Densidade de valor extremo Dependência espacial Desigualdade de Bonferroni Desigualdade de Chebychev Desigualdade de Cramer e Rao Desigualdade de Jensen Desigualdade de Tchebychev Desvio absoluto Desvio absoluto médio Desvio padrão Desvio padrão amostral Diagrama de caixa Dicotomia Dispersão Distância interquartílica Distribuição a posteriori Distribuição a posteriori marginal Distribuição a priori Distribuição amostral Distribuição assintótica Distribuição Beta Distribuição beta-binomial Distribuição bimodal Distribuição binomial Distribuição binomial negativa Distribuição bivariada Distribuição Chi-quadrada Decomposition Choleski decomposition Lag Extreme value density Spatial dependence Bonferroni inequality Chebychev inequality Cramer-Rao inequality Jensen’s inequality Tchebychev’s inequality Absolute Deviation Mean absolute deviation Standard deviation Sample standard deviation Boxplot Dichotomy Dispersion Interquartile range Posterior distribution Marginal posterior distribution Prior distribution Sampling distribution Asymptotic distribution Beta distribution Beta-binomial distribution Bimodal distribution Binomial distribution Negative binomial distribution Bivariate distribution Chi-square distribution 34 23 86 48 142 17 22 29 80 147 2 99 143 138 18 36 37 76 126 96 127 139 6 15 15 16 16 109 17 23 .

Distribuição conjunta Distribuição de Bernoulli Distribuição de Cauchy Distribuição de correlação constante Distribuição de Dirichlet Distribuição de Erlang Distribuição de freqüência Distribuição de Laplace Distribuição de Pareto Distribuição de Poisson Distribuição de probabilidade Distribuição de Weibull Distribuição de Wishart Distribuição exponencial Distribuição exponencial dupla Distribuição F Distribuição F de Snedecor Distribuição fiducial Distribuição gama Distribuição gaussiana Distribuição gaussiana inversa Distribuição geométrica Distribuição hipergeométrica Distribuição inversa Distribuição lognormal Distribuição marginal Distribuição multinomial Distribuição multivariada Distribuição não singular Distribuição normal Joint distribution Bernoulli distribution Cauchy distribution Equally correlated distribution Dirichlet distribution Erlangian distribution Frequency distribution Laplace distribution Pareto distribution Poisson distribution Probability distribution Weibull distribution Wishart distribution Exponential distribution Double exponential distribution F-distribution Snedecor F distribution Fiducial distribution Gamma distribution Gaussian distribution Inverse Gaussian distribution Geometric distribution Hypergeometric distribution Inverse distribution Log-normal distribution Marginal distribution Multinomial distribution Multivariate distribution Non singular distribution Normal distribution 80 14 21 43 36 44 55 86 123 125 128 155 155 47 38 51 142 52 58 59 78 61 68 77 93 96 104 107 114 114 .

Distribuição t de Student Distribuição uniforme Student t distribution Uniform distribution 145 150 26 Distribuições a posteriori condicionais Conditional posterior distributions E Efeito aleatório Efeito de vizinhança Efeito multiplicativo Eficiência Eliminação backward Eliminação de parâmetros Ensaios independentes Equações normais Equilíbrio Ergodicidade Erro Erro Absoluto Erro quadrado médio Erro tipo I Erro tipo II Escala nominal Escala ordinal Espaço amostral Espaço de decisão Especificidade Estado absorvente Estatística Estatística ancilar Estatística de Durbin e Watson Estatística de ordem Random effect Neighboring effect Multiplicative effect Efficiency Backward elimination Elimination of parameters Independent trials Normal equations Equilibrium Ergodicity Error Absolute error Mean square error Type I error Type II error Nominal scale Ordinal scale Sample space Decision space Specificity Absorving state Statistic Ancillary statistic Durbin-Watson statistic Order statistics 133 110 106 41 11 42 73 115 43 44 44 2 99 148 148 113 120 138 34 143 2 144 5 39 120 .

Estatística de teste Estatística descritiva Estatística ineficiente Estatística pivotal Estatística suficiente Estimação Estimação de Bayes Estimação de parâmetro Estimação por intervalos Estimador Estimador consistente Estimador de Bayes empírico Test statistic Descriptive statistics Inefficient statistic Pivotal statistic Sufficient statistic Estimation Bayes’ estimation Parameter estimation Interval estimation Estimator Consistent estimator Empirical Bayes estimator 147 35 74 124 145 45 12 123 77 45 27 42 98 61 60 103 41 63 90 104 150 88 44 23 30 21 47 93 Estimador de máxima verossimilhança Maximum likelihood estimator (MLE) Estimador de máxima verossimilhança Generalized maximum likelihood generalizada Estimador de mínimos quadrados generalizados Estimador de momentos Estimador eficiente Estimador gráfico Estimador linear Estimador mais eficiente Estimador não viciado Estimadores de mínimos quadrados Estimativa Estudo cohorte Estudo cross-sectional Estudo de caso-controle Estudo experimental Estudo longitudinal Moment estimator Efficient estimator Graphical estimator Linear estimator Most efficient estimator Unbiassed estimator Least squares estimators Estimate Cohort study Cross-sectional study Case-control study Experimental study Longitudinal study estimator Generalized least squares estimator .

Estudo observacional Estudo prospectivo Estudo retrospectivo Evento Eventos mutuamente exclusivos Experimento de Bernoulli Experimento de multi-resposta incompleto Experimento fatorial Experimento quadrado latino Extrapolação Observational study Prospective study Retrospective study Event Mutually exclusive events Bernoulli trial Incomplete multiresponse design Factorial design Latin square design Extrapolation 118 129 136 45 107 14 72 51 87 48 F Falso positivo Família conjugada de distribuições Família conjugada de distribuições naturais Família exponencial Famílias completas de distribuição Fator Fator auto-regressivo Fator de Bayes Fator geral Filtro Follow-up Fórmula quadrática Fração de amostragem Freqüência Freqüência independente Função de autocorrelação Exponential family Complete families of distributions Factor Autoregressive factor Bayes factor General factor Filter Follow-up Quadratic form Sampling fraction Frequency Independence frequency Autocorrelation function False positive Conjugate family of distributions Natural conjugate family of distributions 109 47 24 50 08 12 59 52 54 131 139 54 73 8 51 27 .

Função de autocovariância Função de covariância Função de decisão Função de densidade Função de densidade condicional Função de densidade marginal Função de deviance Função de discrepância Função de distribuição Função de distribuição empírica Função de freqüência Função de ligação Função de perda Função de probabilidade marginal Função de risco Função de valor absoluto Função de verossimilhança Função escore Função gama Função geradora Função geradora de momentos Função identidade Função indicadora Função inversa Função monotônica Função operativa-característica Função poder Autocovariance function Covariance function Decision function Density function Conditional density function Marginal density function Deviance function Discrepancy function Distribution function Empirical distribution function Frequency function Link function Loss function Marginal probability function Hazard function Absolute value function Likelihood function Score function Gamma function Generating function Moment generating function Identity function Indicator function Inverse function Monotonic function Operating characteristic function Power function 8 29 33 35 25 128 96 36 36 37 43 55 91 94 97 66 2 89 140 59 61 103 71 74 77 103 119 126 Função de densidade de probabilidade Probability density function .

G Grade Gráfico de dispersão Grau de liberdade Grupo Grid Scatterplot Degree of freedom Group 63 140 34 64 H Hiperparâmetro Hipótese alternativa Hipótese composta Hipótese estatística Hipótese nula Hipótese simples Hipóteses encaixadas Histograma Homocedasticidade Homogeneidade Hyperparameter Alternative hypotheses Composite hypothesis Statistical hypothesis Null hypothesis Simple hypothesis Nested hypothesis Histogram Homoscedasticity Homogeneity 69 4 25 144 116 141 111 67 68 67 I Identificabilidade Implementação Independência Independência condicional Inferência bayesiana Inferência fiducial Informação a priori Informação de Fisher Inspeção gráfica Interação Indentifiability Implementation Independence Conditional independence Bayesian inference Fiducial inference Prior information Fisher information Graphical inspection Interaction 71 71 72 25 13 52 127 53 63 75 .

Intercorrelação Interpolação Intervalo de confiança Intervalo de confiança assintótico Invariância Inversa generalizada Isomorfismo Intercorrelation Interpolation Confidence interval Asymptotic confidence interval Invariance Generalized inverse Isomorphism 76 76 26 6 77 60 78 J Jackknife Jackknife 80 K Krigagem Kurtose Kriging Kurtosis 83 84 L Lei dos grandes números Lei dos pequenos números Lema de Neyman e Pearson Ligação canônica Ligação logarítmica Ligação logística Log-log complementar Law of large numbers Law of small numbers Neyman-Pearson lemma Canonical link Log link Logistic link Complementary log-log 87 87 112 20 92 92 24 M Mapa de níveis Matriz de fatores Matriz de precisão Matriz de variância-covariância Level map Factor matrix Precision matrix Variance-covariance matrix 88 50 127 153 .

Matriz definida negativa Matriz definida positiva Matriz não singular Matriz ortogonal Matriz simétrica Matriz singular Média Média a priori Média amostral Média de uma variável aleatória Média geométrica Média harmônica Média móvel Mediana Mediana amostral Medida de locação Melhor estimador Método de bootstrap Método de Fellegi Método de Gauss e Seidel Método de máxima verossimilhança Método de mínimos quadrados Método de momentos Método de Monte Carlo em Cadeias de Markov (MCMC) Método estatístico exato Método invariante Método livre de distribuição Metodologia de Le e Zidek Métodos de decisão múltipla Negative definite matrix Positive definite matrix Non singular matrix Orthogonal matrix Symmetric matrix Singular matrix Mean Prior mean Sample mean Mean of a random variable Geometric mean Harmonic mean Moving average Median Sample median Measure of location Best estimator Boostrap method Fellegi’s method Gauss-Seidel method Maximum likelihood method Least squares method Method of moments Monte Carlo Markov Chain (MCMC) 109 125 114 120 145 141 99 127 138 99 62 66 104 100 138 99 14 18 51 59 98 88 100 103 Exact statistical method Invariance method Distribution free method Le and Zidek methodology Multiple decision methods 46 77 37 88 105 .

Métodos de integração numérica Métodos de Monte Carlo Métodos de simulação Mistura de distribuições Moda Modelo Modelo aditivo Modelo aditivo generalizado Modelo auto-regressivo Modelo bilinear Modelo de Arrhenius Modelo de Box e Jenkins Modelo de escala Modelo de locação Modelo de locação-escala Modelo de regressão multivariada Modelo de simulação Modelo dinâmico Modelo espaço-temporal Modelo linear Modelo linear generalizado Modelo logito Modelo para resposta binária Modelo probito Modelos lineares hierárquicos Momento Momentos negativos Multicolinearidade Numerical integration methods Monte Carlo methods Simulation methods Mixture of distributions Mode Model Additive model Generalized additive model Autogressive model Bilinear model Arrhenius model Box and Jenkins model Scale model Location model Location-scale model Multivariate regression model Simulation model Dynamic model Space-time model Linear model Generalized linear model Logit model Model for binary response Probit model Hierarchical linear models Moment Negative moments Multicollinearity 116 103 141 101 101 101 3 59 9 15 5 18 91 140 91 92 107 141 39 142 91 60 93 102 128 66 102 110 104 Modelo de crescimento linear (MCL) Linear growth model (LGM) .

N Natureza seqüencial do teorema de Bayes Nível de significância Normalidade assintótica Número de informação de Kullback e Liebler Número índice Index number 74 Level of significance Asymptotic Normality Kullback-Liebler information number 89 6 84 Bayes sequential nature 12 O Ogiva Ogiva de Galton Ordem de uma cadeia de Markov Ogive Galton ogive Order of a Markov chain 118 58 119 P Padrão de fatores Padrão pontual Padrões espaciais Paradoxo de Lindley Parâmetro Parâmetro de escala Parâmetro de local Parâmetros de distúrbio Percentil Permutabilidade Polígono de freqüência Ponto de corte Ponto de massa em zero População infinita Factor pattern Point pattern Spatial patterns Lindley’s paradox Parameter Scale parameter Location parameter Nuisance parameters Percentile Exchangeability Frequency poligon Cut-off Mass point at zero Infinite population 50 125 142 90 123 140 92 115 124 46 55 31 98 75 .

Precisão Preditor linear Preditor linear ótimo Previsão Previsão Primeiro tempo de passagem Princípio de verossimilhança Priori de Jeffreys Priori vaga Prioris hierárquicas Prioris não informativas Probabilidade Probabilidade condicional Probabilidade de transição Problema de decisão múltipla Procedimento de Bayes empírico Processo de entrada/saída Processo de Markov Processo de movimento browniano Processo de Poisson Processo de vida e morte Processo determinístico Processo estacionário Processo evolucionário Processo markoviano múltiplo Processos multivariados Produto de Kronecker de matrizes Programação inteira Programação linear Promédio Precision Linear predictor Optimum linear predictor Forecasting Prediction First passage time Likelihood principle Jeffreys’ prior Vague prior Hierarchical priors Non-informative priors Probability Conditional probability Transition probability Multiple decision problem Empirical Bayes procedure Input/output process Markov process Brownian motion process Poisson process Birth and death process Deterministic process Stationary process Evolutionary process Multiple Markov process Multivariate processes Kronecker product of matrices Interger programming Linear programming Average 126 91 119 54 127 53 89 80 152 67 113 127 26 147 105 42 75 97 18 125 17 35 143 46 106 107 84 75 91 9 .

Propriedade markoviana P-valor Markov property P-value 97 129 Q Quadrado Greco-Latino Quartil Quase certo Graeco-Latin square Quartile Almost certain 63 131 4 R Raiz característica Razão de chances Razão de verossimilhança (RV) Região crítica Região de aceitação Regra de decisão Regressão binária bivariada Regressão conjunta Regressão curvilínea Regressão defasada Regressão logística Regressão múltipla Regressão polinomial Regressão stepwise Regressor Replicação Residual de Pearson Resíduo Risco Risco Characteristic root Odds ratio Likelihood ratio (LR) Critical region Acceptance region Decision rule Bivariate binary regression Joint regression Curvilinear regression Lag regression Logistic regression Multiple regression Polynomial regression Stepwise regression Regressor Replication Pearson residual Residual Hazard Risk 22 118 89 29 3 33 17 81 30 86 93 106 125 144 135 135 124 135 66 136 .

Risco de Bayes Robustez Ruído Bayes risk Robustness Noise 12 136 112 S Sazonalidade Seleção aleatória Seleção de modelo Seleção de modelos Seleção forward Semi amplitude Sensibilidade Série temporal Série de Fourier Série ordenada Simetria Sistema de vizinhança Solução de Bayes Suavização exponencial Suficiência Suficiência conjunta Super dispersão Superfície de freqüência Seasonality Random selection Model choice Model selection Forward selection Mid-range Sensitivity Time series Fourier series Ordered series Skewness Neighborhood system Bayes Solution Exponential smoothing Sufficiency Joint sufficiency Over-dispersion Frequency surface 140 133 102 102 54 100 141 147 54 120 141 110 12 48 145 81 121 56 T Tabela de freqüência Tau de Kendall (τ ) Tendência curvilínea Teorema de Bayes Teorema de Blackwell Frequency table Kendall’s tau (τ ) Curvilinear trend Bayes theorem Blackwell’s theorem 56 83 30 13 17 .

Teorema do limite central Teorema de Rao e Blackwell Teorema de representação de De Finetti Teoria assintótica Teoria de decisão de bayesiana Teoria de decisão Teoria de Neyman e Pearson Teoria dos jogos Teoria frenqüentista Teoria freqüentista de probabilidade Teste acelerado Teste da razão de verossimilhança Teste de Bartlett Teste de Behrens e Fisher Teste de Gabriel Teste de hipótese Teste de Kolmogorov e Smirnov Teste de Lehmann Teste de Wilcoxon Teste mais poderoso Teste unilateral Testes assintóticos Testes assintóticos de hipótese Transformação da raiz quadrada Transformação de Laplace Transformação normalizadora Transformação log-log Central limit theorem Rao-Blackwell theorem De Finetti’s representation theorem Asymptotic theory Bayes decison theory Decision theory Neyman-Pearson theory Game theory Frequentist theory Frequency theory of probability Accelerated testing Likelihood ratio test Bartlett’s test Behrens-Fisher test Gabriel’s test Hypothesis testing Kolmogorov-Smirnov test Lehmann’s test Wilcoxon’s test Most powerful test One-sided test Asymptotic tests Asymptotic tests of hypothesis Square root transformation Laplace transformation Normalizing transformation Log-log transformation 22 134 33 7 11 34 112 58 56 56 2 90 11 13 58 69 83 88 155 104 118 7 7 143 87 115 93 .

U Unidade elementar Elementary unit 41 V Valor ajustado Valor discrepante Valor esperado Valor interpolado Valor perdido Valores extremos Variabilidade Variância Variância amostral Variáveis aleatórias distribuídas conjuntamente Variáveis aleatórias independentes Variável Variável aleatória Variável aleatória Bernoulli Variável aleatória binomial negativa Variável aleatória binomial Variável aleatória contínua Variável aleatória de Poisson Variável aleatória exponencial Variável aleatória gama Variável aleatória geométrica Variável aleatória hipergeométrica Variável aleatória lognormal Variável aleatória multinomial Independent random variables Variable Random variable Bernoulli random variable Negative binomial random variable Binomial random variable Continuous random variable Poisson random variable Exponential random variable Gamma random variable Geometric random variable Hypergeometric random variable Log-normal random variable Multinomial random variable 73 152 133 14 109 16 27 125 48 59 62 68 93 105 Fitted value Outlier Expected value Interpolated value Missing value Extreme values Variability Variance Sample variance Jointly distributed random variables 53 120 46 76 100 48 152 152 138 81 .

Variável aleatória normal padronizada Standard normal random variable Variável aleatória normal Variável aleatória Pascal Variável aleatória positiva Variável aleátoria uniforme Variável dependente Variável dummy Variável independente Variável latente Variável observável Variograma Verificação do modelo Verossimilhança condicional Verossimilhança marginal Vício Vizinhos Normal random variable Pascal random variable Positive random variable Uniform random variable Dependent variable Dummy variable Independent variable Dummy variable Observable variable Variogram Model checking Conditional likelihood Marginal likelihood Bias Neighbors 143 115 124 126 150 35 38 74 38 118 153 101 25 96 15 111 W X Y Z .

A .

ACCELERATED TESTING TESTE ACELERADO Freqüentemente. Este tipo de testes é praticado em estudos de . uma vez atingido.ABSOLUTE DEVIATION DESVIO ABSOLUTO A diferença de um valor com relação a uma constante. ABSOLUTE VALUE FUNCTION FUNÇÃO DE VALOR ABSOLUTO Função matemática cujo resultado é o próprio valor sem levar em consideração o signo. o processo de experimentação. ABSORVING MARKOV CHAIN CADEIA DE MARKOV ABSORVENTE Uma classe importante de cadeias de Markov não ergódicas. aquela cadeia que possui um estado absorvente. não pode ser deixado. ou manufatura. deve acontecer em um período de tempo muito menor que o ciclo de vida normal do indivíduo estudado. que representa uma amostra. sem levar em conta o sinal. ABSORVING STATE ESTADO ABSORVENTE Estado de um processo estocástico que. ABSOLUTE ERROR ERRO ABSOLUTO O erro absoluto de uma observação x é o desvio absoluto de x do seu valor “real”.

ou são considerados através da . ACCURACY ACURACIA No sentido estatístico geral. acuracia denota a proximidade dos cálculos ou estimações com seus valores reais. AGGREGATION AGREGAÇÃO Palavra usada para denotar a mistura de dados originais em agregados. ADDITIVE MODEL MODELO ADITIVO Modelo em a que os fatores que influenciam variável dependente possuem um efeito aditivo. diversos fatores podem ser somados. ADDITIVITY ADITIVIDADE Propriedade usada em estatística pela qual soma. ACCEPTANCE REGION e de análise de REGIÃO DE ACEITAÇÃO Na teoria de teste de hipóteses. se um ponto amostral cair dentro dela. a região do espaço amostral de forma que. a hipótese testada é aceita. usualmente com o propósito de expressálos de forma resumida.confiabilidade sobrevivência.

O evento ao que se relaciona esta probabilidade é chamado de “quase certo” no limite. significa uma seqüência de passos necessários para atingir um objetivo. . Recentemente. uma palavra equivalente à “fórmula”.AIC (AKAIKE INFORMATION CRITERIA) AIC (CRITÉRIO DE INFORMAÇÃO DE AKAIKE) Critério para seleção de modelos baseado na utilização da razão de verossimilhança penalizada pelos graus de liberdade. ANALYSIS OF COVARIANCE ANÁLISE DE COVARIÂNCIA É uma extensão da análise de variância para levar em conta o caso em que membros de uma classe compartilham valores de mais de uma variável. tenderá a 1 (um) quando n tender a infinito. ALTERNATIVE HYPOTHESES HIPÓTESE ALTERNATIVA No teste de hipóteses. ALMOST CERTAIN QUASE CERTO Uma probabilidade dependente de um parâmetro n. qualquer hipótese alternativa admissível para aquela que está sendo testada. ALGORITHM ALGORITMO Algum tempo atrás.

Se não há Estimadores Suficientes a perda de alguma informação será inevitável. é algumas vezes conhecido como análise de variância multivariada.ANALYSIS OF VARIANCE ANÁLISE DE VARIÂNCIA Levando-se em conta a teoria de testes de significância multivariados. ANCILLARY STATISTIC ESTATÍSTICA ANCILAR De acordo com a teoria de inferência associada com o nome de R. A. Tais funções são chamadas estatísticas ancilares. Fisher. A variação total de um conjunto de dados pode ser separada em componentes associados a fontes de variação usadas como critério de classificação das observações. a função de verossimilhança contém todas as informações dadas pela amostra sobre os parâmetros desconhecidos da população que se possa querer estimar. ARRHENIUS MODEL MODELO DE ARRHENIUS Em uma ampla variedade de reações químicas onde existe por exemplo. mas essa perda pode ser reduzida considerando-se funções adicionais das variáveis que podem ser combinadas com o estimador de máxima verossimilhança. ou difusão de materiais . queda de rendimento de lubrificantes. corroção de metais.

R é a constante de gases. ASYMPTOTIC NORMALITY NORMALIDADE ASSINTÓTICA Uma distribuição dependente de um parâmetro n. ASYMPTOTIC CONFIDENCE INTERVAL INTERVALO DE CONFIANÇA ASSINTÓTICO Intervalo de confiança construído a partir de um resultado assintótico. quando o parâmetro tende ao limite. o comportamento da taxa em que acontecem estes eventos segue a equação seguinte: taxa do processo=Aexp{-Q/TR}. Q é a energia de reação. geralmente um tamanho de amostra. ASYMPTOTIC TESTS TESTES ASSINTÓTICOS . ASYMPTOTIC DISTRIBUTION DISTRIBUIÇÃO ASSINTÓTICA A forma limite de uma distribuição de freqüência ou probabilidade dependente de um parâmetro. geralmente infinito. é definida como assintoticamente normal se. a distribuição tende para a forma Normal.semicondutores. quando n tende ao infinito. onde A é uma constante. então. tal como tamanho de amostra ou tempo. e T é a temperatura absoluta.

AUTOCORRELATION AUTOCORRELAÇÃO A correlação interna entre membros de uma série de observações ordenadas no tempo ou espaço. ASYMPTOTIC THEORY TEORIA ASSINTÓTICA Teoria baseada em distribuições limite. onde o valor esperado é Portanto. AUTOCORRELATION COEFFICIENT COEFICIENTE DE AUTOCORRELAÇÃO Se xt é um processo estocástico estacionário de média m e variância σ 2. geralmente empregado em distinção a uma variável ou característica quantitativa. ASYMPTOTIC TESTS OF HYPOTHESIS TESTES ASSINTÓTICOS DE HIPÓTESE Testes de hipótese baseados em resultados assintóticos. ATRIBUTO Uma característica qualitativa de um indivíduo. é uma variável. ATTRIBUTE CARACTERÍSTICA. o sexo é um atributo e a idade . para seres humanos.Testes que utilizam estatísticas obtidas de distribuições limite. o coeficiente de autocorrelação de ordem k é definido como ρ k=ρ -k=E[xt-m] [xt+k-m].

calculado para a distribuição conjunta de xt e xt+k. AUTOCORRELATION FUNCTION FUNÇÃO DE AUTOCORRELAÇÃO A função de autocorrelação de um processo estocástico estacionário é a autocovariância dividida pela variância. AUTOCOVARIANCE FUNCTION FUNÇÃO DE AUTOCOVARIÂNCIA Para qualquer processo estocástico estacionário a função γ (k)=C(xt+k. AUTOREGRESSION AUTO-REGRESSÃO A geração de uma série de observações pela qual o valor de cada uma é parcialmente dependente nos valores daquelas precederam..xt) . AUTOREGRESSIVE FACTOR FATOR AUTO-REGRESSIVO Um dos fatores considerados dentro de um modelo autoregressivo e que estão associados a uma das variáveis defasadas no tempo. onde C representa a covariância dos termos entre parêntese é conhecida como função de autocovariância. AUTOREGRESSIVE MODEL MODELO AUTO-REGRESSIVO que imediatamente a .

porém enganoso. um promédio mistura todos os valores do conjunto de dados. neste sentido. AVERAGE PROMÉDIO Conceito familiar. .Um modelo econométrico que utiliza a própria variável de interesse defasada no tempo para explicar os valores atuais. um “promédio” tem o sentido de representar ou resumir as características importantes de um conjunto de valores e. Em um sentido mais limitado. Geralmente. o termo inclui à mediana e também à moda.

começando pelo modelo completo e eliminando covariáveis até conseguir o .B BACK-FITTING ALGORITHM ALGORITMO DE BACK-FITTING Algoritmo de ajuste de modelo usado quando existem várias covariáveis.

Utilizado para ajustar um modelo linear generalizado. BAYES’ ESTIMATION ESTIMAÇÃO DE BAYES A estimação de parâmetros da população pelo uso de métodos Bayesianos. filho primogênito de Ann Bayes e Joshua Bayes. Nascido em 1702.S.melhor ajuste. F. Falecido em Tumbridge Wells. BACKWARD ELIMINATION ELIMINAÇÃO BACKWARD Método de seleção de variáveis numa regressão linear que consiste em ajustar o modelo com todas as covariáveis e eliminar.R. BARTLETT’S TEST TESTE DE BARTLETT Teste aproximado da homogeneidade do conjunto de variâncias de um número de amostras independentes Normais. BAYES DECISION THEORY TEORIA DE DECISÃO DE BAYESIANA Teoria de decisão baseada no teorema do reverendo Thomas Bayes. autor do primeiro artigo de uma forma quantitativa de inferência indutiva. BAYES FACTOR FATOR DE BAYES . em 17 de abril de 1761. F.S. as menos significativas. uma a uma.R..

o teorema de Bayes estabelece que P(θ |X)=P(X| θ )P(θ )/P(X). BAYES RISK RISCO DE BAYES O valor minimizado do risco esperado em uma Solução de Bayes. . BAYES SEQUENTIAL NATURE NATUREZA SEQÜENCIAL DO TEOREMA BAYES O teorema de Bayes pode ser aplicado de forma seqüencial conforme a informação coletada dos dados. BAYES THEOREM TEOREMA DE BAYES Para uma quantidade de interesse θ associada a uma população representada por uma variável X que tem densidade dada por P(X|θ ).A razão das chances duas dos dados que considerando-se hipóteses competem entre si. O resultado final será o mesmo que o obtido com todos os dados de uma única vez. a solução de Bayes é a função de decisão que minimiza o risco médio relativo a alguma distribuição de probabilidade. BAYES SOLUTION SOLUÇÃO DE BAYES Na terminologia das funções de decisão estatísticas.

BAYESIAN APPROACH ABORDAGEM BAYESIANA Uma das duas abordagens utilizadas em estatística. BAYESIAN INFERENCE INFERÊNCIA BAYESIANA Uma forma de inferência que trata parâmetros como variáveis aleatórias que possuem distribuições a priori. das distribuições dos BEHRENS-FISHER TEST TESTE DE BEHRENS E FISHER Teste de significância sobre a diferença de médias de amostras aleatórias de duas distribuições Normais com variâncias diferentes. BERNOULLI RANDOM VARIABLE VARIÁVEL ALEATÓRIA BENOULLI . BERNOULLI DISTRIBUTION DISTRIBUIÇÃO DE BERNOULLI Caso especial da distribuição binomial na qual é realizado um único experimento de Bernoulli. refletindo o estado acumulado de conhecimento. baseadas no teorema de Bayes como forma de atualizar a informação existente sobre alguma quantidade de interesse. Através do teorema de Bayes são feitas atualizações parâmetros.

BETA DISTRIBUTION DISTRIBUIÇÃO BETA O termo Distribuição Beta é geralmente aplicado quando uma variável aleatória tem densidade f(x)=x 0≤ x≤ 1. e se existe esse estimador. α . então ele é chamado de melhor estimador. α -1 (x-1) β -1 /B(α . BETA-BINOMIAL DISTRIBUTION DISTRIBUIÇÃO BETA-BINOMIAL .β ). Se existe um critério que diferencia um estimador de outro como o melhor. BEST ESTIMATOR MELHOR ESTIMADOR A estimação de parâmetros de uma população questão de a partir se A a da o informação “melhor” depende que um de proveniente de uma amostra levanta a existe dos estimador. classificam resposta “bondade” principalmente critérios estimador.Variável aleatória com distribuição de Bernoulli.β >0. BERNOULLI TRIAL EXPERIMENTO DE BERNOULLI Qualquer experimento que apresente unicamente dois resultados exclusivos entre si.

BILINEAR MODEL MODELO BILINEAR Se um modelo linear com duas covariáveis pode ser arrumado na forma (β 0+β 2x2)+(β 1+β 12 2 penalizada x )x1. diz-se que X tem distribuição beta-binomial. o vício é definido como a diferença entre o valor esperado de t e o próprio parâmetro θ . este modelo é conhecido por modelo bilinear.. BIMODAL DISTRIBUTION DISTRIBUIÇÃO BIMODAL Distribuição de freqüências que possui duas modas..n. BIC (BAYESIAN INFORMATION CRITERIA) BIC (CRITÉRIO DE INFORMAÇÃO BAYESIANA) Critério para seleção de modelos pelo baseado na utilização da razão de verossimilhanças tamanho da amostra.β +n-x)/[x!(n-x)! B(α . BIAS VÍCIO Para um estimador t do parâmetro θ .1. . para x=0. n≥ 1.β )].Quando uma variável aleatória X tem função de massa de probabilidade dada por f(x)=n!B(α +x.. ele mostra uma relação linear em x1 para a qual tanto intercepto como coeficiente angular são funções lineares de x2..

e é conhecida como distribuição binomial... onde q=1-p. BIVARIATE BINARY REGRESSION REGRESSÃO BINÁRIA . Esta última expressão fornece as probabilidades para r=0. . BIRTH AND DEATH PROCESS PROCESSO DE VIDA E MORTE Processo estocástico que tenta descrever o crescimento e a queda de uma população de membros que podem morrer ou criar novos indivíduos.. a probabilidade de r ocorrências em n tentativas independentes é n!pxqn-x/[x!(nx)!]. BINOMIAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA BINOMIAL Variável aleatória discreta que tem distribuição binomial. BINOMIAL DISTRIBUTION DISTRIBUIÇÃO BINOMIAL Se um evento tem probabilidade p de acontecer em qualquer tentativa. n. 1. muitas vezes relacionados com variáveis qualitativas de duas categorias e que podem ser representados pelos números 0 e 1.BINARY DATA DADOS BINÁRIOS Dados que apresentam dois possíveis valores.

.. Se um estimador de variância mínima existe. será sempre uma função de uma estatística suficiente... então: Pr(θ ∈C)≥ 1-Σ iPr(θ i∉Ci).θ k). BLACKWELL’S THEOREM TEOREMA DE BLACKWELL Teorema referente a estimadores de variância mínima estabelecido por Blackwell (1947) e também por Rao (1949). com ou sem efeito sazonal. com os θ i´s não independentes e seja C=C1× .x2)dx1dx2.. BOX AND JENKINS MODEL MODELO DE BOX E JENKINS Modelo de previsão de séries temporais não estacionárias. escrita para o caso contínuo como dF=f(x1.× Ck. BONFERRONI INEQUALITY DESIGUALDADE DE BONFERRONI Seja θ =(θ 1.. BOOTSTRAP METHOD MÉTODO DE BOOTSTRAP Método de reamostragem que utiliza a função de distribuição empírica. BIVARIATE DISTRIBUTION DISTRIBUIÇÃO BIVARIADA A distribuição de um par de variáveis x1 e x2.BIVARIADA Regressão em que duas variáveis binárias existem como variáveis dependentes. Este modelo depende de .

com resíduos de média móvel. 2 C . onde σ é uma constante. BROWNIAN MOTION PROCESS PROCESSO DE MOVIMENTO BROWNIANO Processo estocástico aditivo de uma variável real xt definida no tempo t para a qual xt-xs tem distribuição Normal com média zero e variância σ 2|t-s|.autoregressões de m-éssima ordem da série. BOXPLOT DIAGRAMA DE CAIXA Representação gráfica da distribuição de um conjunto de dados.

xp e xp+1.... Estas quantidades são ..λ e λ p+1 .. (b) cada membro de um grupo é independente de todos exceto um membro do outro grupo e (c) as correlações diferentes de zero entre membros de grupos diferentes são maximizadas....CANONICAL CORRELATION CORRELAÇÃO CANÔNICA Em análise multivariada ser pode ser provado que as variáveis x1.xp+q podem transformadas p linearmente em variáveis λ 1.λ p+q de forma que (a) os cada grupo não são membros de correlacionados entre eles........

Estas funções de ligação são chamadas de ligações canônicas.λ p e λ p+1 . CANONICAL LINK LIGAÇÃO CANÔNICA Cada distribuição da família exponencial considerada em modelos lineares generalizados tem uma função de ligação especial para a qual existe uma estatística suficiente igual em dimensão a β do preditor linear η =Σ xjβ j...chamadas correlações canônicas e os dois conjuntos de variáveis λ 1. Inicialmente utilizados na restauração eletrônica de imagens e utilizados em estatística por W. Assumem.. uma média igual à média dos vizinhos e uma variância inversamente proporcional ao número de vizinhos. CAR (CONDITIONAL AUTOREGRESSIVE) CAR (CONDICIONAL AUTO-REGRESSIVO) Efeitos aleatórios estruturados... CASE-CONTROL STUDY ESTUDO DE CASO-CONTROLE . para um particular local geográfico.. utilizados em modelos para dados espaciais. Besag em 1974..λ p+q são chamadas variáveis canônicas.

CENTRAL LIMIT THEOREM TEOREMA DO LIMITE CENTRAL Na sua forma mais simples. mas sabe-se que está além. -∞≤ x≤∞ . somente os k menores ou os k maiores são observados ou k pode ser expresso como uma proporção de n. e um grupo não afetado (controle). sendo feitas comparações à exposição a um fator ou fatores em estudo. O termo é geralmente empregado nos casos onde. CENSORED DATA DADOS CENSURADOS Uma observação é dita censurada se ela não pode ser medida de forma precisa. de um limite. sua existência é conhecida. CENSORING CENSURA Uma amostra é considerada censurada quando certos valores são desconhecidos (ou deliberadamente ignorados). ou aquém. de um número n de valores existentes.Neste tipo de estudos identifica-se um grupo de indivíduos (caso) com uma condição de interesse. porém. o teorema estabelece que se n variáveis . CAUCHY DISTRIBUTION DISTRIBUIÇÃO DE CAUCHY Nome geralmente usado para denotar a distribuição contínua dF=dx/π (1+x2).

quando expressada em forma padronizada.independentes têm variâncias finitas então sua soma tenderá. que utiliza. 0≤ x≤∞ . então Pr{|X-µ X| ≥ rσ X}= Pr{(X-µ X)2≥ (rσ X)2}≤ r-2 para CHI-SQUARE DISTRIBUTION DISTRIBUIÇÃO CHI-QUADRADA Distribuição contínua da de variável aleatória forma dF=e-x/2xv/2-1dx/ [2v/2Γ (v/2)]. à distribuição Normal quando n vai para o infinito. finita. CHOLESKI DECOMPOSITION DECOMPOSIÇÃO DE CHOLESKI Um dos métodos mais comuns para achar a matriz raiz quadrada é chamado de decomposição de Choleski. para a estimação de quantidades de interesse. a . CHARACTERISTIC ROOT RAIZ CARACTERÍSTICA Ver Autovalor CHEBYCHEV INEQUALITY DESIGUALDADE DE CHEBYCHEV Se X é uma variável aleatória com variância todo r>0. CLASSICAL APPROACH ABORDAGEM CLÁSSICA Uma das duas abordagens existentes em estatística.

COEFFICIENT OF VARIATION COEFICIENTE DE VARIAÇÃO Medida de variabilidade que resulta da divisão do desvio padrão e a média. é dada por log(1-x)) .informação amostral obtida de um experimento. para uma família paramétrica de distribuições univariadas ou . a função log-log complementar y. COMPLEMENTARY LOG-LOG LOG-LOG COMPLEMENTAR Para uma variável x. y=log(- COMPLETE FAMILIES OF DISTRIBUTIONS FAMÍLIAS COMPLETAS DE DISTRIBUIÇÃO Se. Às vezes é apresentada em forma de porcentagem. COHORT STUDY ESTUDO COHORTE Também chamado de follow-up. COLLINEARITY COLINEARIDADE Condição em que algumas covariáveis utilizadas numa regressão resultam da combinação linear de outras. tem por essência identificar um grupo de indivíduos que serão acompanhados para ver o que acontece com eles.

.. para todo θ : E[h(x)]=∫ h(x) f(x|θ )dx=0 implica que h(x)=0 identicamente (a não ser possivelmente por uma medida igual a zero)...multivariadas f(x|θ ). COMPLETENESS OF STATISTIC COMPLETITUDE DA ESTATÍSTICA Uma estatística h(x) é completa somente se sua família de densidades é completa.... e.. COMPONENT OF VARIANCE COMPONENTE DE VARIÂNCIA Qualquer das fontes de variação numa análise de variância que contribui com parte da soma de quadrados dos desvios das observações com relação à média. sub-densidade obtida mantendo constantes algumas das ..xp. COMPOSITE HYPOTHESIS HIPÓTESE COMPOSTA Hipótese estatística que define um intervalo de valores possíveis para o parâmetro de interesse..xq têm densidade conjunta f(x1.xp+1.xq)... h(x) é uma estatística independente de θ . CONDITIONAL DENSITY FUNCTION FUNÇÃO DE DENSIDADE CONDICIONAL Se um conjunto a de variáveis x1.xp. que depende de um vetor de parâmetros θ ... então a família f(x|θ ) é chamada completa..xp+1..

. chamado de verossimilhança marginal e segundo verossimilhança condicional.φ . CONDITIONAL INDEPENDENCE INDEPENDÊNCIA CONDICIONAL Duas variáveis X e Y são condicionalmente independentes dada a variável Z se Pr(X.φ . CONDITIONAL LIKELIHOOD VEROSSIMILHANÇA CONDICIONAL Supondo que o vetor de dados X pode ser particionado como (T.φ |x).variáveis é chamada de condicional..xq fixos é comumente representada por f(x1.t..Y|Z)=Pr(X|Z)Pr(Y|Z).xp|xp+1...φ |x)/p(φ |x).xp para xp+1. a densidade de x1. CONDITIONAL PROBABILITY é p(θ |φ .xq).. sendo p(φ |x) a distribuição marginal de PROBABILIDADE CONDICIONAL .. a distribuição a posteriori condicional de θ φ .. com função de densidade primeiro o termo é dada do a lado direito por O é l(θ .. assim.x)=p(θ .U).. CONDITIONAL POSTERIOR DISTRIBUTIONS DISTRIBUIÇÕES A POSTERIORI CONDICIONAIS Sejam dois parâmetros θ e φ com distribuição a posteriori p(θ ...u)=l(θ ...u|t).t)l(θ .φ ...

CONSISTENT ESTIMATOR ESTIMADOR CONSISTENTE . onde α é o coeficiente de confiança. o intervalo entre t1 e t2 é chamado intervalo de confiança. a probabilidade condicional de A. CONJUGATE FAMILY OF DISTRIBUTIONS FAMÍLIA CONJUGADA DE DISTRIBUIÇÕES Seja F={p(x|θ ). Pr(t1≤ θ ≤ t2)=α .Sejam A e B dois eventos quaisquer. denotada por P(A|B). CONFIDENCE COEFFICIENT COEFICIENTE DE CONFIANÇA A medida de probabilidade α associada com o intervalo de confiança expressando a probabilidade de que o intervalo inclua o valor verdadeiro do parâmetro. sendo θ o parâmetro a estimar. A amostrais classe P ou de distribuições é chamada de família conjugada com relação a F se para toda p∈F e p(θ )∈P tem-se que p(θ |x)∈P. CONFIDENCE INTERVAL INTERVALO DE CONFIANÇA Se for possível definir duas estatísticas t1 e t2 (funções de valores da amostra somente) de forma que. é dada por: P(A| B)=P(A. tendo certeza do acontecimento de B.θ ∈ Θ } uma família de distribuições observacionais.B)/P(B).

CONTINUITY CORRECTION CORREÇÃO POR CONTINUIDADE Ver Yates’ correction. Se um processo produz uma série de dados sob o que são essencialmente as mesmas condições e as variações internas são aleatórias. ao parâmetro do qual é estimador. quando o tamanho de amostra cresce. O segundo uso preocupa-se com os testes de um novo método. CONTINUOUS RANDOM VARIABLE VARIÁVEL ALEATÓRIA CONTÍNUA Variável aleatória que pode assumir valores nos números reais. Cada observação isolada é. proveniente de uma população distribuída de acordo com alguma lei estatística estabelecida. CONTROL CONTROLE Há duas formas principais em que este termo é usado em estatística. processo ou fator contra um padrão aceito.Um estimador é dito consistente se ele converge em probabilidade. então o processo pode ser considerado estatisticamente sob controle. na verdade. Esta parte .

CORRELATION COEFFICIENT COEFICIENTE DE CORRELAÇÃO Coeficiente que quantifica o grau de correlação entre duas variáveis. Se t é um estimador de θ . COVARIANCE FUNCTION FUNÇÃO DE COVARIÂNCIA Uma forma coloquial para o termo função de autocovariância. O termo é usado também para o estimador da covariância. (Ver: coeficiente de autocorrelação e função) COVARIATE COVARIÁVEL Outro nome para variável independente ou regressor. CORRELATION CORRELAÇÃO Método de análise usado para estudar a possível associação entre duas variáveis. CRAMER-RAO INEQUALITY DESIGUALDADE DE CRAMER E RAO Uma inequação dando um limite inferior para a variância do estimador de um parâmetro. COVARIANCE COVARIÂNCIA O primeiro momento do produto de duas variáveis em torno de seus valores médios.do teste que envolve a comparação do padrão é conhecida como controle.

Ambas são.para uma distribuição com função de freqüência f(x. (b) para denotar o ajuste de uma curva matemática a qualquer conjunto de dados possíveis de serem plotadas contra o tempo ou espaço. se na outra região (a região de rejeição). Se o ponto amostral cai em uma (a região de aceitação). comumente denota-se a segunda pelo termo de região crítica. críticas. CRITICAL REGION REGIÃO CRÍTICA Um teste estatístico de hipótese é feito com base em uma divisão do espaço amostral em duas regiões exclusivas mutuamente.θ ) e se o vício b(θ ) é dado por b(θ )=E(t)-θ (∂ logf/∂ θ )2]. . mas. será rejeitada. de certa forma. a inequação estabelece que Var(t)≥ E[(1+∂ b/∂ θ )2/ . a hipótese é aceita. CROSS-SECTIONAL STUDY ESTUDO CROSS-SECTIONAL São estudos em que os indivíduos são observados uma única vez. CURVE FITTING AJUSTE DE CURVA Expressão usada em dois sentidos diferentes: (a) para denotar o ajuste a uma curva de freqüência especificada matematicamente a uma distribuição de freqüência.

uma expressão matemática mais complicada como uma curva logística. CUT-OFF PONTO DE CORTE O truncamento artificial de um processo de amostragem em um ponto em que fica aparente a existência de dados suficientes para o objetivo em vista. onde τ é o período do ciclo. um componente com a propriedade de que f(t+τ )=f(t) . isto é. CYCLE CICLO Em um uso restrito.CURVILINEAR REGRESSION REGRESSÃO CURVILÍNEA Uma regressão que não é linear. ou por algum processo de suavização como a média móvel. . um movimento periódico em uma série temporal. Pode ser representada como um polinômio. CURVILINEAR TREND TENDÊNCIA CURVILÍNEA Uma tendência que não é linear. Uma forma usualmente considerada é aquela para a qual a variável dependente é representada como um polinômio das variáveis independentes.

D .

DE FINETTI’S REPRESENTATION THEOREM TEOREMA DE REPRESENTAÇÃO DE DE FINETTI Um teorema que se deve a De Finetti (1937). pode ser sempre considerada amostragem como binomial obtida em que pela a probabilidade P do tipo I tem uma distribuição inicial do tipo II. única. que gera uma seqüência binária permutável. onde se estabelece que uma amostra simples. DECILE DECIL Cada um dos nove valores que dividem a freqüência total em dez partes iguais. DECISION FUNCTION FUNÇÃO DE DECISÃO .

DECISION SPACE ESPAÇO DE DECISÃO Em análise seqüencial e na teoria de funções de decisão. Uma regra de decisão δ é uma função definida em Ω com valores em A. que decisão tomar sobre esta. em qualquer estágio de uma pesquisa amostral. decorrendo. possivelmente. da natureza ampla do processo de decisão.Uma função de decisão é uma regra de conduta que. O termo é usado de forma genérica e interdisciplinar. DECISION THEORY TEORIA DE DECISÃO Disciplina da estatística que envolve e explora a estrutura do processo de tomada de decisão. DECISION RULE REGRA DE DECISÃO Seja A o espaço de ações possíveis e Ω o espaço de resultados possíveis de um experimento. e em último caso. o espaço de decisão é o conjunto de todas as possíveis decisões. indica ao estatístico se é necessário obter mais informação ou se já foi coletada suficiente informação. DECOMPOSITION DECOMPOSIÇÃO .

Uma série temporal típica é usualmente composta de quatro partes: (a) Um termo de longo prazo ou tendência. DEPENDENT VARIABLE VARIÁVEL DEPENDENTE Variável que é modelada como função de variáveis independentes em análise de regressão. De um ponto de vista diferente. a expressão “graus de liberdade” também é usada para denotar o número de comparações independentes que podem ser feitas entre os membros de uma amostra. DEGREE OF FREEDOM GRAU DE LIBERDADE Este termo é usado de formas diferentes em estatística. Os graus de liberdade de um conjunto de observações são o número de valores que podem ser arbitrariamente alocados dentro da especificação do sistema. . DENSITY FUNCTION FUNÇÃO DE DENSIDADE Ver Função de freqüência. (d) uma componente aleatória. (b) oscilações de períodos ou amplitude mais ou menos regulares em torno da tendência. (c) uma componente sazonal.O ato da divisão de uma série temporal em suas partes constituintes pelo uso de métodos estatísticos.

ao tratar dados práticos. definida como o logaritmo da razão de verossimilhanças avaliadas em y e µ . DEVIANCE FUNCTION FUNÇÃO DE DEVIANCE A função de deviance. aquele em que o passado determina completamente o futuro do sistema. A definição dos grupos pode ser em termos de uma variável mensurável. em contraste com a estatística teórica que.DESCRIPTIVE STATISTICS ESTATÍSTICA DESCRITIVA Termo usado para denotar dados estatísticos do tipo descritivo ou os métodos de obtenção destes dados. é uma função que mede a discrepância entre os valores observados e os ajustados por um modelo. porém é usualmente baseada em características quantitativas ou atributos. . DETERMINISTIC PROCESS PROCESSO DETERMINÍSTICO Processo estocástico sem erro de previsão. em dois grupos. levando em conta a parametrização. DICHOTOMY DICOTOMIA Uma divisão dos membros de uma população. usualmente envolve algum processo de inferência em probabilidade para sua interpretação. ou amostra.

de dois conjuntos de valores gerados por dois processos. provenientes com certeza de duas ou mais populações. podendo ser. também. Também utilizada para comparar as estimativas feitas por um modelo e os dados reais. DISCRIMINATORY ANALYSIS ANÁLISE DISCRIMINANTE Dado um conjunto de observações multivariadas de uma amostra. DISPERSION DISPERSÃO O grau de dispersão demonstrado por observações. ou não. Usualmente é medida como um promédio em torno de um valor central ou de uma estatística de ordem.DIRICHLET DISTRIBUTION DISTRIBUIÇÃO DE DIRICHLET O K-análogo variado da Distribuição Beta. o problema é definir uma regra para alocar outros indivíduos na população de origem correta com probabilidade mínima de uma classificação errada. a média de desvios dos valores entre eles. DISCREPANCY FUNCTION FUNÇÃO DE DISCREPÂNCIA Função que avalia a proximidade. DISTRIBUTION FREE METHOD MÉTODO LIVRE DE .

considerada -∞≤ x≤∞ . VARIÁVEL LATENTE . a expressão deve ser entendida no sentido de que o teste é independente da distribuição da hipótese nula. b<0. a freqüência total é igual a um. Um exemplo de distribuição exponencial dupla é a distribuição da semi-amplitude de uma população retangular. DOUBLE EXPONENTIAL DISTRIBUTION DISTRIBUIÇÃO EXPONENCIAL DUPLA A distribuição com função de densidade f(x)=aeb|x-c|. b e c constantes. Como uma regra geral. A distribuição pode ser exponencial ordinária deslocada até o ponto c. DISTRIBUTION FUNCTION FUNÇÃO DE DISTRIBUIÇÃO A função de distribuição F(x) de uma variável x é a freqüência total dos membros com valores da variável menores ou iguais a x. No caso de teste de hipótese. neste caso a função de distribuição é a proporção dos membros que têm valores menores ou iguais a x. DUMMY VARIABLE VARIÁVEL DUMMY . como uma a.DISTRIBUIÇÃO Um método que não depende da forma da distribuição considerada.

DYNAMIC MODEL MODELO DINÂMICO Um modelo é considerado dinâmico se possuir uma ou ambas propriedades: (1) ao menos uma variável ocorre nas equações estruturais com valores considerados em diferentes pontos de tempo. etc. Neste sentido a palavra ‘latente/dummy’ deve ser evitada. O termo é usado também de forma mais flexível para denotar uma variável a presença artificial ou expressando de uma características qualitativas.. escrita em uma uma expressão matemática em forma de uma variável represente constante. (2) ao menos uma equação contém uma função do tempo. ausência característica pode ser indicada pelos valores 0 ou 1 associados aos indivíduos. por exemplo.Uma quantidade embora. DURBIN-WATSON STATISTIC ESTATÍSTICA DE DURBIN E WATSON Uma estatística de teste da independência dos erros em uma regressão de mínimos quadrados contra uma alternativa de correlação serial. .

E .

EIGENVALUE AUTOVALOR O autovalor ou raiz característica de uma matriz quadrada A é o valor λ identidade. EFFICIENT ESTIMATOR ESTIMADOR EFICIENTE Um estimador é dito eficiente se ele é de variância mínima. a eficiência de outro estimador com variância v1 é definida como a razão v/v1. agregado.EFFICIENCY EFICIÊNCIA O conceito de eficiência em estimação estatística é atribuído a Fisher (1921) como uma tentativa de medir o mérito relativo de vários estimadores possíveis. v. Um estimador é mais eficiente que outro se tem menor variância e. Ver Characteristic root que satisfaz |A-λ I|=0. se existe um estimador de variância mínima. com . onde I é a matriz ELEMENTARY UNIT UNIDADE ELEMENTAR Um dos indivíduos que. compõe a população: a menor unidade fornecedora de informação que.

Estes parâmetros podem ser eliminados através do uso de distribuições marginais ou condicionais. O algoritmo é iterativo e em cada iteração se alternam as operações de esperança e maximização. ELIMINATION OF PARAMETERS ELIMINAÇÃO DE PARÂMETROS Em alguns estudos são considerados modelos que possuem parâmetros que não são úteis à análise realizada. leva à propriedade populacional em estudo. EM ALGORITHM ALGORITMO EM Método geral útil para obter estimadores de mais máxima verossimilhança quando a existem dados incompletos ou quando é simples maximizar verossimilhança de um problema mais geral que envolve quantidades não observáveis. EMPIRICAL BAYES ESTIMATOR ESTIMADOR DE BAYES EMPÍRICO Um estimador derivado de um procedimento de Bayes empírico. EMPIRICAL BAYES PROCEDURE PROCEDIMENTO DE BAYES EMPÍRICO .agregação adequada.

EQUALLY CORRELATED DISTRIBUTION DISTRIBUIÇÃO DE CORRELAÇÃO CONSTANTE Uma distribuição multivariada é de correlação constante se a correlação entre os pares de variáveis é igual a uma constante ρ . EQUILIBRIUM EQUILÍBRIO Em teoria de filas. k/n para x(1)<x<x(k+1). 1 para x(n)<x é chamada função de distribuição empírica.Termo proposto por Robbins (1956) para denotar a aproximação a um procedimento ótimo de decisão de Bayes que pode ser derivado do uso de dados previamente coletados pelo mesmo procedimento de seleção para uma população em estudo. a função Sn(x) definida como: 0 para x≤ x(1).≤ x(n) . EMPIRICAL DISTRIBUTION FUNCTION FUNÇÃO DE DISTRIBUIÇÃO EMPÍRICA Dada uma amostra ordenada de n observações independentes x(1)≤ x(2) ≤ . constantes durante um ... sistemas em equilíbrio estatístico são aqueles em que o número de clientes ou itens em espera oscila de forma que a média e a distribuição permanecem longo período.

esta palavra denota uma propriedade de certos sistemas que se desenvolvem ao longo do tempo de acordo com leis probabilísticas. Sob certas circunstâncias um sistema tenderá em probabilidade a uma forma limite que é independente da posição inicial. um erro no sentido coloquial. Em um sentido mais limitado. ERROR ERRO Em geral. λ proposta por Erlang para o tempo entre chegadas e tempo de atendimento em problemas de filas. erro é usado em estatística para denotar a diferença entre um valor observado e seu verdadeiro valor. Esta é a propriedade de ergodicidade. ERLANGIAN DISTRIBUTION DISTRIBUIÇÃO DE ERLANG Distribuição do tipo Gama de forma f(t)=λ (λ t)u-1e. ESTIMATE ESTIMATIVA .ERGODIC CHAIN CADEIA ERGÓDICA Cadeia de Markov com propriedade de ergodicidade.t/Γ (k). ERGODICITY ERGODICIDADE Geralmente.

De forma restrita. . uma variável cuja distribuição é de grande importância no cálculo da confiabilidade da estimativa a ser calculada a partir dele. ele contenha o parâmetro de interesse. com certo grau de certeza. Se um único valor for calculado estimação para pontual. uma estimativa é um valor particular obtido para um estimador em determinada amostra. cada O parâmetro processo de desconhecido. É geralmente expressado como uma função de valores de uma amostra e. ESTIMATION ESTIMAÇÃO Estimação está relacionada com a inferência sobre o valor numérico de valores desconhecidos da população baseados em dados incompletos como uma amostra. o processo é chamado estimação por intervalos consiste em calcular um intervalo de forma que. ESTIMATOR ESTIMADOR Um estimador é uma regra ou método de estimar uma constante de uma população. conseqüentemente.

. um evento é qualquer subconjunto do espaço amostral.EVENT EVENTO Para um espaço amostral definido num experimento. EXACT STATISTICAL METHOD MÉTODO ESTATÍSTICO EXATO Usado em estimação por intervalos para afirmar que a distribuição envolvida de é probabilidades completamente conhecida e os níveis de probabilidade são valores exatamente calculados.. EXPECTED VALUE VALOR ESPERADO O valor esperado de uma função de variáveis é seu valor médio Assim. EVOLUTIONARY PROCESS PROCESSO EVOLUCIONÁRIO Qualquer processo A estocástico distribuição não de estacionário..Xkn) têm a mesma distribuição ndimensional. Quantidades aleatórias X1. . EXCHANGEABILITY PERMUTABILIDADE Seja K={k1.Xn são permutáveis se as n! permutações (Xk1...n}.......... probabilidade associada ao processo não é independente do tempo..kn} uma permutação de {1.. em se amostragens repetidas.

. EXPLORATORY ANALYSIS ANÁLISE EXPLORATÓRIA Termo usado para denotar os métodos de descrição de dados estatísticos. O parâmetro σ é o desvio padrão da distribuição.xn) é uma estatística dependente das variáveis x1...xn) o valor esperado de t. m≤ x≤∞ ..... em contraste com a estatística teórica que.... EXPONENTIAL FAMILY FAMÍLIA EXPONENCIAL A família de distribuições com função de probabilidade (densidade) p(x|θ ) pertence à família exponencial com r parâmetros se p(x|θ ) pode ser escrita .xn).t(x1. EXPERIMENTAL STUDY ESTUDO EXPERIMENTAL Em um estudo experimental o pesquisador deliberadamente influencia os eventos e pesquisa o efeito da intervenção.. geralmente envolve algum processo de inferência em probabilidade para sua interpretação. se existir. ao tratar dados práticos.xn com distribuição conjunta dF(x1.. EXPONENTIAL DISTRIBUTION DISTRIBUIÇÃO EXPONENCIAL Uma distribuição cuja função de densidade é dada por f(x)=σ -1exp{-(xm)/ σ }... é: ∫ t dF(x1...

EXTRAPOLATION EXTRAPOLAÇÃO Procedimento de estimação de valores que estão fora da amplitude dos dados. x∈ℵ e ℵ não depende VARIÁVEL ALEATÓRIA Variável aleatória que possui distribuição exponencial.como p(x|θ ) de θ . EXPONENCIAL EXPONENTIAL SMOOTHING SUAVIZAÇÃO EXPONENCIAL Um método usado em séries de tempo para suavizar ou prever uma série. . e em dados espaciais consiste em obter valores estimados para locais onde não existem observações. EXTREME VALUE DENSITY DENSIDADE DE VALOR EXTREMO Densidades de probabilidades associadas a valores extremos. EXPONENTIAL RANDOM VARIABLE = a(x) exp{Σ jUj(x) φ j(θ ) +b(θ )}. Em séries temporais equivale a uma previsão. EXTREME VALUES VALORES EXTREMOS Valores da variável menores ou maiores com relação a todos os outros membros de uma série.

por exemplo. . um fator de uma expressão matemática.F FACTOR FATOR Esta palavra é usada no contexto estatístico de diversas formas: (a) na forma matemática ordinal.

FACTOR PATTERN PADRÃO DE FATORES Numa matriz de fatores. por exemplo.(b) para denotar uma quantidade sob exame em um experimento como causa possível de variação. (c) em análise multivariada. . pode se assumir a priori que alguns elementos são iguais a zero.. FACTORIAL ANALYSIS ANÁLISE FATORIAL Parte da análise multivariada na qual as variáveis observadas xi. i=1. aij=0. (d) para denotar um item constituinte de um promédio ou número índice.. e assim como um fator da variação.. que pode ser considerada como parte das variáveis. geralmente linear..p são expressas como função de um número m<p de fatores fj junto com elementos residuais. FACTOR MATRIX MATRIZ DE FATORES A matriz de coeficientes (aij) que aparece na relação entre variáveis e fatores numa análise fatorial. O padrão de coeficientes diferentes de zero é chamado de padrão de fatores. para denotar uma função das variáveis observadas. se o j-éssimo fator não aparece na i-éssima variável.

cada um sendo aplicado em pelo menos dois níveis de forma que o efeito diferencial pode ser observado.FACTORIAL DESIGN EXPERIMENTO FATORIAL Experimento planejado para examinar o efeito de um ou mais fatores. FIDUCIAL DISTRIBUTION DISTRIBUIÇÃO FIDUCIAL A distribuição de um parâmetro necessário para inferência fiducial sobre esse parâmetro. . quando um teste acusa a presença de um fator que não existe. cada uma distribuída como a variância de uma amostra Normal. F-DISTRIBUTION DISTRIBUIÇÃO F A distribuição da razão de duas quantidades independentes. FALSE POSITIVE FALSO POSITIVO Em experimentos clínicos. FELLEGI’S METHOD MÉTODO DE FELLEGI Fellegi (1963) propõe um método de amostragem sem reposição com probabilidade proporcional ao tamanho. que permite a rotação da amostra simultaneamente com os cálculos exatos de probabilidades conjuntas de seleção de conjuntos de unidades.

CORREÇÃO POR POPULAÇÃO . FILTER FILTRO Qualquer método para isolar componentes harmônicos em uma série temporal. introduzida por R. é necessário corrigir a variância do estimador de um parâmetro multiplicando-a pelo fator (N-n)/(N-1). Fisher (1930). é O objetivo da inferência probabilísticas fazer afirmações sobre os valores de parâmetros desconhecidos. o análogo matemático do filtro de um raio de luz ou som pela remoção de efeitos não sistemáticos e evidenciando os harmônicos que o constituem. A. FINITE POPULATION CORRECTION FINITA Quando o tamanho da população é conhecido.FIDUCIAL INFERENCE INFERÊNCIA FIDUCIAL Tipo de inferência estatística baseada na distribuição fiducial. FINITE MARKOV CHAIN CADEIA DE MARKOV FINITA Uma cadeia de Markov {xn} é chamada finita com k estados se o número de valores possíveis da variável aleatória {xn} é finito e igual a k.

podendo ser comparado com o valor realmente observado. tem por essência identificar um grupo de indivíduos que serão acompanhados para ver o que acontece com eles. FITTED VALUE VALOR AJUSTADO Valor calculado através de um procedimento que usa um conjunto de valores. FISHER INFORMATION INFORMAÇÃO DE FISHER Seja X um vetor de variáveis aleatórias com função de densidade p(x|θ ). FIRST PASSAGE TIME PRIMEIRO TEMPO DE PASSAGEM Conceito importante em processos estocásticos onde. Para as diversas realizações de um processo estocástico N é uma variável aleatória. . se xN=a e a≠ 0 atingir xN=a pela primeira vez define N como o primeiro tempo de passagem desde a origem ao estado a.que é chamado fator de correção por população finita. FOLLOW-UP FOLLOW-UP Também chamado de estudo cohorte. A medida de informação de Fisher esperada de θ é definida como I(θ )=E[- ∂ 2logp(x|θ )/∂ θ 2].

.1.. .FORECASTING PREVISÃO Cálculo da magnitude que uma quantidade assumirá em um ponto do tempo futuro. j=0.. ou o número de membros de uma população em uma classe específica.. FOURIER ANALYSIS ANÁLISE DE FOURIER Teoria de representação de funções de uma variável t como a soma de séries de termos que contém senos e cosenos do tipo ajcos(2π j/λ j). j=0.. FREQUENCY CURVE CURVA DE FREQÜÊNCIA Representação gráfica de uma distribuição de freqüências contínua... FORWARD SELECTION SELEÇÃO FORWARD Método de seleção de variáveis numa regressão linear que consiste em ajustar o modelo inserindo as covariáveis uma a uma.1.. FOURIER SERIES SÉRIE DE FOURIER Série de fatores de seno e coseno da forma ajcos(2π j/λ j). FREQUENCY FREQÜÊNCIA Número de ocorrências de um dado tipo de evento.

FREQUENCY TABLE TABELA DE FREQÜÊNCIA Tabela desenhada para mostrar a distribuição de freqüências da ocorrência bivariado da curva de .com a variável na abscissa e a freqüência na ordenada. a freqüência elementar em uma amplitude dx. para variáveis contínuas. FREQUENCY SURFACE SUPERFÍCIE DE FREQÜÊNCIA Análogo freqüência. ou. representadas as como ordenadas contra os valores da variável como abscissas e os topos vizinhos das ordenadas unidos. FREQUENCY POLIGON POLÍGONO DE FREQÜÊNCIA Diagrama que mostra a forma da distribuição freqüências de são freqüências. FREQUENCY FUNCTION FUNÇÃO DE FREQÜÊNCIA Expressão que fornece a freqüência de uma variável x como função de x. FREQUENCY DISTRIBUTION DISTRIBUIÇÃO DE FREQÜÊNCIA Especificação freqüências com os da dos valores forma membros que como de as uma as população são distribuídas de acordo assumem variáveis.

de um experimento.de uma característica dada de acordo com alguns intervalos de classe específicos. FREQUENTIST APPROACH ABORDAGEM FREQÜENTISTA Uma das duas abordagens em estatística. FREQUENTIST THEORY TEORIA FREQÜENTISTA Teoria estatística baseada na abordagem freqüentista. baseada na utilização de informação proveniente existente. deixando de lado qualquer subjetividade . FREQUENCY THEORY OF PROBABILITY TEORIA FREQÜENTISTA DE PROBABILIDADE A teoria freqüentista de probabilidade considera a probabilidade de um evento como o limite da freqüência de ocorrência desse evento em uma série de n tentativas quando n tende ao infinito.

G .

GABRIEL’S TEST

TESTE DE GABRIEL Procedimento de comparação simultânea de valores médios numa análise de variância. Baseada na soma de quadrados entre grupos para os 2k-k-1 subconjuntos de dois ou mais médias dos k grupos testada contra o valor crítico fixo da distribuição F com (k-1,n-k) graus de liberdade.

GALTON OGIVE

OGIVA DE GALTON Sob certas condições, isto é, quando a distribuição de freqüências é unimodal, a curva de distribuição tem o formato de Sforma de ogiva, termo emprestado por Galton (1875) da arquitetura e usado particularmente para a curva de distribuição da distribuição Normal.

GAME THEORY

TEORIA DOS JOGOS A área da matemática que trata, geralmente, da teoria da competição de dois ou mais jogadores sob um conjunto específico de regras.

GAMMA DISTRIBUTION

DISTRIBUIÇÃO GAMA Uma distribuição cuja densidade é da forma f(x)=e-xx Pearson ou
λ -1

/Γ (λ ), 0≤ x≤∞ . É como

também conhecida como Tipo III de simplesmente distribuição do tipo III.

GAMMA FUNCTION

FUNÇÃO GAMA Função definida como Γ (c)=∫ xc-1e-xdx, para c>0 e 0≤ x≤∞ .

GAMMA RANDOM VARIABLE

VARIÁVEL ALEATÓRIA GAMA Variável gama. aleatória com distribuição

GAUSSIAN DISTRIBUTION

DISTRIBUIÇÃO GAUSSIANA Nome alternativo para a distribuição Normal.

GAUSS-SEIDEL METHOD

MÉTODO DE GAUSS E SEIDEL Método clássico para a solução iterativa de um conjunto de equações lineares, particularmente para aquelas que surgem como soluções de mínimos quadrados.

GENERAL FACTOR

FATOR GERAL Em análise de componentes, um componente comum a todas as variáveis.

GENERALIZED ADDITIVE MODEL

MODELO ADITIVO Modelo alternativo aos modelos lineares generalizados, em que, para covariáveis x, o preditor linear é dado por

GENERALIZADO

η =α +Σ jfj(xj) no qual fj(xj) são funções
suaves estimadas a partir dos dados.

GENERALIZED INVERSE

INVERSA GENERALIZADA A inversa generalizada de uma matriz A mxn, é uma matriz nxm A- de forma que para qualquer y onde Ax=y consistente, x=A-y é uma solução.

GENERALIZED LEAST SQUARES ESTIMATOR

ESTIMADOR DE MÍNIMOS QUADRADOS GENERALIZADOS Método proposto por Aitken (1934) para estimar os k parâmetros do vetor π em uma equação linear quando os distúrbios v não são independentes, porém, sua matriz de variância-covariância é conhecida.

GENERALIZED LINEAR MODEL

MODELO LINEAR Um modelo linear generalizado é uma extensão dos modelos lineares que satisfaz: (a) as componentes aleatórias, Y, têm distribuição independente que pertence à família exponencial com valor esperado igual a

GENERALIZADO

µ

e

variância

constante; (b) as covariáveis produzem um preditor linear dado por η =Σ jxjβ j; (c) a ligação entre as componentes aleatória e sistemática é dada por g(µ )=η .

GENERALIZED MAXIMUM LIKELIHOOD ESTIMATOR

ESTIMADOR

DE

MÁXIMA

VEROSSIMILHANÇA GENERALIZADA Uma aproximação para a estimação do parâmetro envolvendo o conceito de eficiência assintótica proposto por Weiss e Wolfowitz (1966) para remover alguns dos problemas associados com os estimadores de máxima verossimilhança clássicos.

GENERATING FUNCTION

FUNÇÃO GERADORA Função de um parâmetro t que, quando expandido como uma série de potências de t, produz os valores de algumas quantidades de interesse estatístico em forma de de coeficientes de uma eventos como ou a os de probabilidade momentos freqüência.

distribuição

GEOMETRIC DISTRIBUTION

DISTRIBUIÇÃO GEOMÉTRICA Seja uma variável X que representa o número de tentativas de um experimento até obter um resultado de interesse, X tem distribuição geométrica se sua função de massa de probabilidade é dada por f(x)=(1-p)x-1p, sendo p a probabilidade de obter o resultado de interesse.

GOODNESS OF FIT BONDADE DE AJUSTE Em geral. ou seja. O termo é usado especialmente em relação ao ajuste de distribuições teóricas a . deriva do “ajuste” de um modelo aos dados.GEOMETRIC MEAN MÉDIA GEOMÉTRICA Medida de locação que consiste em calcular a raiz n-éssima do produto das quantidades amostrais. GEOMÉTRICA GIBBS SAMPLER ALGORITHM ALGORITMO DO AMOSTRADOR DE GIBBS Método de simulação estocástica que gera amostras de um vetor de parâmetros a partir das distribuições marginais completas. GEOMETRIC RANDOM VARIABLE VARIÁVEL ALEATÓRIA Variável aleatória discreta que tem distribuição geométrica. o nível de ajuste entre uma série de valores observados e uma segunda série que é derivada inteiramente ou parcialmente de uma base hipotética. GOMPERTZ CURVE CURVA DE GOMPERTZ Ver Curva de crescimento.

.. geralmente para manter um desenho linear de observações dentro de um papel pautado específico. e α . Formalmente..dados observados e o ajuste de retas de regressão.. nenhuma letra Grega aconteça mais de uma vez na mesma linha ou coluna.. GRID GRADE Malha retangular em um plano formada por dois conjuntos de linhas ortogonais. de forma que nenhuma letra romana aconteça mais do que uma vez na mesma linha ou coluna.. uma de cada em uma cela do quadrado. é um arranjo em um quadrado de dois conjuntos de letras (A. e nenhuma combinação das duas aconteça mais do que uma vez em qualquer lugar. Cada linha de cada conjunto é colocada .)..β . GRAECO-LATIN SQUARE QUADRADO GRECO-LATINO Uma extensão do Quadrado Latino. GRAPHICAL ESTIMATOR ESTIMADOR GRÁFICO Constante escolhida por tentativa e erro da representação geométrica. GRAPHICAL INSPECTION INSPEÇÃO GRÁFICA Método qualidades para observar algumas na estudadas baseado observação de gráficos adequados.B.

todos os quais possuem uma. características em comum. GROUP COMPARISON COMPARAÇÃO DE GRUPOS Comparação entre grupos de indivíduos. GROWTH CURVE CURVA DE CRESCIMENTO Em geral. na base de valores representativos (como a média) de cada . uma expressão que fornece o tamanho de uma população como função de uma variável do tempo. descrevendo o curso de seu crescimento. Utilizada em algumas formas de amostragem de áreas. ou mais. geralmente um. GROUP GRUPO Conjunto de elementos.a intervalos constantes da linha adjacente. indivíduos ou observações.

H HARMONIC MEAN MÉDIA HARMÔNICA A média harmônica H de um conjunto de dados é o recíproco da média aritmética de seus recíprocos. Pode ser escrita no caso de dados discretos para n .

uma palavra que implica na existência de chance ou risco. HIERÁRQUICOS .t+δ t) e é dado por h(t)=f(t)/[1-F(t)].xn como como: H-1=n1 Σ i(xi)-1.. Se esta taxa instantânea é calculada em um número de tempos de sobrevida. HAZARD RISCO Em geral. funcionando no tempo t0 falhe no intervalo (t.. cujos parâmetros apresentam uma estrutura de hierarquia com os hiperparâmetros que podem. Uso especial acontece principalmente em conexão com análise do tempo de vida de sistemas físicos ou componentes. um modelo que define uma relação linear para a média das observações. ter outra relação hierárquica com hiperparâmetros de mais alto nível.quantidades x1. por sua vez. HIERARCHICAL LINEAR MODELS MODELOS LINEARES Em uma abordagem bayesiana.. e assim por diante. HAZARD FUNCTION FUNÇÃO DE RISCO Probabilidade que um item. as taxas de risco resultantes serão conhecidas como função de risco..

HISTOGRAM HISTOGRAMA Um diagrama de freqüências univariado cujas áreas de retângulos são proporcionais às freqüências de classe. e a largura de cada seção. para a especificação quantitativa de cada estágio. a especificação a priori é feita em duas fases: (a) estrutural. mas freqüentemente ocorre em conexão com amostras de populações diferentes que podem ou não ser idênticas.HIERARCHICAL PRIORS PRIORIS HIERÁRQUICAS Uma boa estratégia para especificar a distribuição a priori é dividir a situação experimental em estágios ou em hierarquias. (b) subjetiva. representando o intervalo da classe correspondente da variável. Desta forma. os dados amostrais serão chamados homogêneos. que terá seu conjunto de hiperparâmetros. . HOMOGENEITY HOMOGENEIDADE Este termo é usado em estatística no seu sentido ordinário. Se as populações são idênticas são chamadas homogêneas. e por extensão. para a divisão dos estágios.

. HYPERPARAMETER HIPERPARÂMETRO Em uma análise bayesiana. HYPERGEOMETRIC DISTRIBUTION DISTRIBUIÇÃO HIPERGEOMÉTRICA Uma distribuição de uma variável discreta geralmente associada com a amostragem sem reposição de uma população finita.HOMOSCEDASTICITY HOMOCEDASTICIDADE Para muitas variáveis aleatórias com distribuição conjunta dada.. HYPERGEOMETRIC RANDOM VARIABLE VARIÁVEL ALEATÓRIA HIPERGEOMÉTRICA Variável aleatória discreta que tem distribuição hipergeométrica. hiperparâmetros são os parâmetros da distribuição a priori.(N-r+1). se a variância de uma variável é a mesma para todas as outras. A freqüência de r “sucessos” e n-r “fracassos” em uma amostra de n obtida de uma população de N em que existem Np “sucessos” e Nq “fracassos” (p+q=1) é n!(Np)[r](Nq)[n-r]/ (r!(n-r)!Nn) onde N[r]=N(N-1).. a distribuição é chamada homocedástica.

HYPOTHESIS TESTING TESTE DE HIPÓTESE Processo de decisão para testar hipóteses estatísticas. .

I IDENTIFIABILITY IDENTIFICABILIDADE Em certos sistemas de equações estocásticas pode acontecer que alguns ou todos os parâmetros não podem ser estimados de forma separada sem .

IMPORTANCE SAMPLING AMOSTRAGEM POR IMPORTÂNCIA Este método de amostragem. IDENTITY FUNCTION FUNÇÃO IDENTIDADE Seja x uma variável. IMPLEMENTATION IMPLEMENTAÇÃO Expressão usada para denotar a ação de adaptar um modelo a um conjunto de dados reais.cometer um vício. usado na análise de Monte Carlo. Se o material é dividido em alocar tratamentos nas unidades dos blocos. INCOMPLETE BLOCKS BLOCOS INCOMPLETOS Forma básica de um planejamento de experimento blocos e se introduzido deseja por Yates certos (1936). os tratamentos podem ser numerosos para que todos apareçam em cada bloco. a função f é a função identidade se f(x)=x. ou se o número de equações é igual ao número de variáveis endógenas desconhecidas. apesar de contar com uma grande quantidade de dados. consiste em concentrar a distribuição de pontos de amostragem naquelas partes do intervalo da variável que são de grande interesse. Quando um bloco contém menos do que .

a freqüência que deveria ser achada em uma cela particular. caso os atributos que a definem sejam independentes.uma replicação completa de tratamentos ele é chamado de bloco incompleto. . Isto pode acontecer quando existe impossibilidade física proveniente de inconvenientes ou de outras considerações como custo. INDEPENDENCE INDEPENDÊNCIA No como cálculo referência de ao probabilidades. INDEPENDENCE FREQUENCY FREQÜÊNCIA INDEPENDENTE Em uma tabela de contingência. Dois eventos são independentes se a probabilidade de um for a mesma perante a certeza da ocorrência ou não do outro. INCOMPLETE MULTIRESPONSE DESIGN EXPERIMENTO DE MULTI-RESPOSTA INCOMPLETO Um planejamento de experimento introduzido por Srivastava (1964) para tratar de situações onde nem todas as variáveis são medidas para cada unidade experimental. princípio de independência é geralmente definida probabilidades conjuntas.

INDEPENDENT TRIALS ENSAIOS INDEPENDENTES Os ensaios sucessivos de um evento são considerados independentes se a probabilidade do resultado de qualquer ensaio for independente do resultado dos outros. de regressão. x1. A amostragem como uma de características.INDEPENDENT RANDOM VARIABLES VARIÁVEIS ALEATÓRIAS Várias variáveis aleatórias são INDEPENDENTES independentes se a distribuição conjunta é igual ao produto das distribuições marginais. as mais variáveis como Quando um x´s uma termo são variável y é expressa como função de variáveis . de vista é série ensaios. INDEPENDENT VARIABLE VARIÁVEL INDEPENDENTE Este termo é comumente usado em análise variáveis estocástico..xk. conhecidas independentes.. A expressão é geralmente limitada aos casos onde a probabilidade é a mesma para todos os ensaios... freqüentemente chamada de ‘Ensaios de Bernoulli’.

ξ (t)=x(t)-y(t). nos quais o estado ξ (t) no tempo t é resultado de duas variáveis aleatórias x. x e y são . pode possuir a propriedade para alguma estratégia de amostragem.INDEX NUMBER NÚMERO ÍNDICE Um número índice é uma quantidade que mostra. a função indicadora é definida para todos os pontos s em S como I(A.S) igual a 1 ou 0 dependendo se s pertence ou não a A. INPUT/OUTPUT PROCESS PROCESSO DE ENTRADA/SAÍDA Uma grande classe de processos estocásticos. pela sua variação. em um contexto de amostragem. INEFFICIENT STATISTIC ESTATÍSTICA INEFICIENTE Uma estatística com menos do que a eficiência possível no sentido de ter variância amostral mínima. INFINITE POPULATION POPULAÇÃO INFINITA Aquela que possui a propriedade de ser infinita para algum processo limitador ou. sobre uma amostra S. y. INDICATOR FUNCTION FUNÇÃO INDICADORA Dada uma classe de eventos A. as mudanças no tempo ou espaço de uma magnitude que não é suscetível de medição direta ou observação direta na prática.

distinto da correlação entre elas e uma variável exógena. .chamadas. quando um número de indivíduos ou itens está agrupado de acordo com vários fatores de classificação e estes fatores não são independentes se diz que existe interação entre eles. INTEGRATED DATA DADOS AGREGADOS Classe de dados estatísticos em que os valores para intervalos unitários pequenos podem ser somados para formar séries de valores relacionadas a intervalos maiores. INTERCORRELATION INTERCORRELAÇÃO Termo usado para denotar a correlação de um número de variáveis entre elas. de entrada e saída. respectivamente. Os processos de filas e processos epidêmicos são exemplos. INTERACTION INTERAÇÃO Em forma geral. INTEGER PROGRAMMING PROGRAMAÇÃO INTEIRA Uma forma de programação matemática onde as soluções assumem valores inteiros.

INTERVAL ESTIMATION ESTIMAÇÃO POR INTERVALOS Estimação de um parâmetro populacional mediante a especificação de um intervalo cujos limites superior e inferior contêm o parâmetro. entre outros. Esta amplitude contém a metade da freqüência total e fornece uma medida simples da dispersão que é útil em estatística descritiva. INTERPOLATION INTERPOLAÇÃO Procedimento para achar valores interpolados. um valor interpolado é um valor previsto para um local onde não existem medições da característica em estudo. Em estatística espacial.INTERPOLATED VALUE VALOR INTERPOLADO Em forma geral. INTERQUARTILE RANGE DISTÂNCIA INTERQUARTÍLICA Distância entre o primeiro e o terceiro quartís. de tempo. . um valor interpolado é uma previsão feita baseada nos dados para uma variável não observada. espacial. Pode existir em diversos tipos de análise: de séries.

a função inversa g=f-1 tal que g(f(x))=x.INVARIANCE INVARIÂNCIA Este termo é usado em estatística para denotar a propriedade de não sofrer alterações sob algumas transformações. INVERSE FUNCTION FUNÇÃO INVERSA Seja uma função f(x). da recíproca de uma INVERSA . também chamada de Gaussiana inversa. então. INVARIANCE METHOD MÉTODO INVARIANTE Princípio de estimação ou teste de hipótese que requer um estimador ou hipótese quando que os permaneça dados sofrem invariante alguma transformação. Esta função nem sempre existe. X-1 terá distribuição Normal inversa. INVERSE GAUSSIAN DISTRIBUTION DISTRIBUIÇÃO GAUSSIANA Seja X uma variável com distribuição Normal. INVERSE DISTRIBUTION DISTRIBUIÇÃO INVERSA Esta expressão é usada para denotar a distribuição variável.

J . no sentido de uma teoria ser obtida a partir da outra pela tradução ou interpretação de noções e símbolos básicos. IRREDUTÍVEL ISOMORPHISM ISOMORFISMO Equivalência lógica de duas teorias.IRREDUCIBLE MARKOV CHAIN CADEIA DE MARKOV Uma cadeia de Markov é chamada irredutível se todos os pares de estados da cadeia se comunicam.

tn-1 é a média das n estatísticas derivadas omitindo um dos membros da amostra. então. . ntn-(n-1)tn-1 tem vício da ordem 1/n2. que reduz o vício de estimação e fornece intervalos de confiança nos casos em que a teoria de distribuição ordinária não o permite. Este método é baseado na idéia que se tn é uma estatística viciada na ordem de 1/n.JACKKNIFE JACKKNIFE Método proposto por Tukey (1958).

regressão conjunta. . O termo é equivalente a distribuição multivariada. de um conjunto de variáveis independentes. JOINT REGRESSION REGRESSÃO CONJUNTA O modelo clássico de regressão assume que a variável dependente é uma função. JOINT DISTRIBUTION DISTRIBUIÇÃO CONJUNTA A distribuição de duas ou mais variáveis. mudanças são feitas para permitir a inclusão de produtos cruzados gerando de variáveis assim uma independentes. geralmente linear. e g é qualquer função convexa em I. Se o modelo linear não é adequado. JENSEN’S INEQUALITY DESIGUALDADE DE JENSEN Se X é uma variável aleatória definida no intervalo I.JEFFREYS’ PRIOR PRIORI DE JEFFREYS Distribuição a priori que consiste na raiz quadrada do determinante da matriz de informação de Fisher. então a desigualdade g(E[X])≤ E[g(X)] é conhecida como desigualdade de Jensen.

.....tk.. JOINTLY DISTRIBUTED RANDOM VARIABLES VARIÁVEIS ALEATÓRIAS DISTRIBUÍDAS CONJUNTAMENTE Variáveis aleatórias que possuem uma distribuiço conjunta..tk são conjuntamente suficientes para os parâmetros θ 1.θ k se a função de verossimilhança pode ser expressa como L1 (t1.....θ 1......xn) onde L2 não depende de θ 1.JOINT SUFFICIENCY SUFICIÊNCIA CONJUNTA Estimadores t1.θ k) L2 (x1..... apesar de depender de outros parâmetros..... K .θ k.

.KENDALL’S TAU (τ ) TAU DE KENDALL (τ ) Coeficiente de correlação baseado no número de inversões em um ranking quando comparado com outro. KOLMOGOROV AXIOMS AXIOMAS DE KOLMOGOROV Conjunto de axiomas definidos por Kolmogorov (1933) que fundamentam a teoria de probabilidade em termos de teoria de conjuntos e da medida.

KRONECKER PRODUCT OF MATRICES PRODUTO DE KRONECKER DE MATRIZES O produto A⊗B de uma matriz A m× m e B n× n é a matriz mn× mn cujos elementos são o produto de termos. O teste pode ser usado como teste de bondade de ajuste e a estatística de teste pode ser usada para definir intervalos de confiança para distribuições desconhecidas. KULLBACK-LIEBLER INFORMATION NUMBER NÚMERO DE INFORMAÇÃO DE KULLBACK E LIEBLER O número de informação Ix (1:2) denota a informação média por observação para . de probabilidade KRIGING KRIGAGEM Técnica para estimar um efeito puramente espacial numa região através de estimadores lineares cujos pesos são calculados de forma a minimizar a covariância espacial.KOLMOGOROV-SMIRNOV TEST TESTE DE KOLMOGOROV E SMIRNOV Teste de significância proposto por Kolmogorov (1933) e desenvolvido por Smirnov (1939). um de A e um de B.

O termo foi introduzido por Karl Pearson em 1906 e. ou seja. KURTOSIS KURTOSE Um termo usado para descrever a extensão pela qual a curva de freqüência unimodal é “pontiaguda”. se qualquer razão única pode medir adequadamente a kurtose. a extensão relativa do declive na vizinhança da moda. ele propôs a razão de momentos µ 4/µ como uma medida de kurtose. entretanto. 2 2 É duvidoso. L .discriminar entre duas hipóteses H1 e H2 quando H1 é verdadeira: onde Ix(1:2)=∫ f1(x)log(f1(x)/f2(x))ψ (x) ψ (x) é uma medida comum.

.LAG DEFASAGEM Um evento que acontece no tempo t+k (k>0) é chamado defasado com relação ao tempo t. LAG COVARIANCE COVARIÂNCIA DEFASADA O primeiro momento dos produtos de duas séries. uma das quais está defasada com relação à outra. sendo a defasagem de ordem k. LAG CORRELATION CORRELAÇÃO DEFASADA Correlação entre duas séries. uma das quais está defasada com relação à outra.

-∞≤ x≤∞ e σ >0. LATIN SQUARE DESIGN LATINO Um dos mais comuns planejamentos de experimentos em que k tratamentos são alocados em um quadrado k× k de forma que cada tratamento aparece exatamente uma única vez em cada linha e coluna. LAPLACE TRANSFORMATION TRANSFORMAÇÃO DE LAPLACE Se uma função g(t) está relacionada a uma segunda f(x) pela equação g(t)=∫ etx f(x)dx para x>0. EXPERIMENTO QUADRADO . então g(t) é a transformação de Laplace de f(x). LAPLACE DISTRIBUTION DISTRIBUIÇÃO DE LAPLACE Distribuição de freqüências expressada como dF=(2σ )-1exp{-|x-m|/σ }dx.LAG REGRESSION REGRESSÃO DEFASADA Uma regressão em que os valores da variável dependente e pelo menos uma das variáveis independentes estão defasadas com relação às outras. LAPLACE APPROXIMATION APROXIMAÇÃO DE LAPLACE Método de aproximação de cálculo de integrais que utiliza transformações de Laplace.

LEAST SQUARES ESTIMATORS ESTIMADORES DE MÍNIMOS QUADRADOS Estimadores obtidos pelo método de mínimos quadrados. e seja m a média amostral de n valores selecionados de forma aleatória de f(x). LE AND ZIDEK METHODOLOGY METODOLOGIA DE LE E ZIDEK Metodologia bayesiana proposta em 1992 para a estimação de valores não observados em uma região através de um modelo de regressão Normal. LAW OF SMALL NUMBERS LEI DOS PEQUENOS NÚMEROS Termo sugerido por von Bortkiewicz (1898) para descrever o comportamento de eventos raros que obedecem uma distribuição de Poisson. LEAST SQUARES METHOD MÉTODO DE MÍNIMOS QUADRADOS Uma técnica de estimação pela qual as quantidades a estimar são determinadas . Sejam ε e δ dois números que satisfazem ε >0 e 0<δ <1.LAW OF LARGE NUMBERS LEI DOS GRANDES NÚMEROS Seja f(x) uma densidade com média µ e variância finita σ 2. Se n é um inteiro maior que σ 2/(ε 2δ ). então P[-ε <m-µ <ε ]≥ 1δ .

minimizando-se quantidades. LEHMANN’S TEST

uma

certa

forma

quadrática das observações e aquelas

TESTE DE LEHMANN Teste não paramétrico para as variâncias de duas amostras.

LEVEL MAP

MAPA DE NÍVEIS Gráfico que mostra as curvas em um plano (x,y) correspondente aos valores da constante k em uma equação definida como f(x,y)=k. É similar aos contornos de mesma altitude em um mapa geográfico.

LEVEL OF SIGNIFICANCE

NÍVEL DE SIGNIFICÂNCIA Em teste de hipótese, é a probabilidade de rejeitar uma hipótese verdadeira. Também chamado de probabilidade de erro tipo I.

LIKELIHOOD FUNCTION

FUNÇÃO DE VEROSSIMILHANÇA Se a função de distribuição de variáveis aleatórias x1,...,xn , que dependem dos parâmetros θ 1,...,θ k, é representada como dF=f(x1,...,xn; θ 1,...,θ k)dx1...dxn, a função f(x1,...,xn;θ 1,...,θ k) considerada como função dos θ ´s para valores fixos

dos

x´s

é

chamada

função

de

verossimilhança. LIKELIHOOD PRINCIPLE PRINCÍPIO DE VEROSSIMILHANÇA Toda a informação de um experimento X está contida na função de verossimilhança. LIKELIHOOD RATIO (LR) RAZÃO DE VEROSSIMILHANÇA (RV) Se x1,x2,...,xn for uma amostra aleatória de uma população f(x;θ 1,θ 2,...,θ k) a verossimilhança desta amostra específica será: L=Π i f(xi;θ 1,θ 2,...,θ k). Esta terá um máximo, com respeito aos θ no espaço de parâmetros Ω , que pode ser escrito L(Ω 0). Para um sub-espaço ω do espaço de parâmetro, existirá um valor máximo L(ω 0). A hipótese nula H0 de que uma população específica em estudo pertença ao sub-espaço ω de Ω ser testada usando-se a razão verossimilhança desta. LIKELIHOOD RATIO TEST TESTE DA RAZÃO DE VEROSSIMILHANÇA Teste de uma hipótese H0 contra uma alternativa H1, baseado na razão de duas pode de

λ =L(ω 0)/L(Ω 0),

0≤ λ ≤ 1 ou alguma função simples

verossimilhanças, cada uma derivada de H0 e H1. LINDLEY’S PARADOX PARADOXO DE LINDLEY A incerteza a priori tem um papel crucial na comparação bayesiana de hipóteses nulas. No limite, quando a variância da distribuição a priori tende ao infinito, o fator de Bayes também aumenta de forma infinita. Este é o resultado de usar prioris não informativas e é conhecido como paradoxo de Lindley. LINEAR ESTIMATOR ESTIMADOR LINEAR Estimador que é função linear das observações. LINEAR GROWTH MODEL (LGM) MODELO DE CRESCIMENTO LINEAR (MCL) Modelo polinomial de primeira ordem que inclui um parâmetro adicional para descrever o crescimento de um processo. LINEAR MODEL MODELO LINEAR Um modelo cujas equações que unem as variáveis estão em uma forma linear. LINEAR PREDICTOR PREDITOR LINEAR Expressão da forma Σ jxjβ
j

usada para

prever alguma quantidade desconhecida.

LINEAR PROGRAMMING

PROGRAMAÇÃO LINEAR Procedimento usado para maximizar, ou minimizar, uma função linear de variáveis que estão sujeitas a restrições expressadas em termos lineares.

LINK FUNCTION

FUNÇÃO DE LIGAÇÃO Em modelos lineares generalizados, é a função que relaciona a média da parte aleatória com o preditor linear.

LOCATION MODEL

MODELO DE LOCAÇÃO X tem um modelo de locação se uma função g e a quantidade θ existem de forma que a distribuição de X , dado θ satisfaz f(x|θ )=g(x-θ ). Neste caso, θ é chamado de parâmetro de locação.

LOCATION PARAMETER

PARÂMETRO DE LOCAL Um parâmetro que localiza a distribuição de freqüência no sentido de definir o centro ou valor típico como uma média ou moda.

LOCATION–SCALE MODEL

MODELO DE LOCAÇÃO-ESCALA X tem um modelo de locação e escala se uma função g e as quantidades θ e σ existem de forma que a distribuição de X dado (θ ,σ ) satisfaz f(x|θ ,σ )=σ
1 -

g((x-θ )/σ ). Neste caso, θ é chamado

de parâmetro de locação e σ parâmetro de escala. LOG LINK LIGAÇÃO LOGARÍTMICA

o

Seja η a função de ligação e µ a média da parte aleatória, então a função de ligação logarítmica é η =log(µ ). LOGISTIC LINK LIGAÇÃO LOGÍSTICA Seja η a função de ligação e µ a média da parte aleatória, então a função de ligação logística é η =log(µ /(1-µ )). Esta função é comumente usada quando a parte aleatória de um modelo linear generalizado segue uma distribuição de Bernoulli. LOGISTIC REGRESSION REGRESSÃO LOGÍSTICA Modelo linear generalizado com ligação logística. LOGIT MODEL MODELO LOGITO Modelo linear generalizado com ligação logística. LOG-LOG TRANSFORMATION TRANSFORMAÇÃO LOG-LOG Transformação de uma probabilidade P de acordo com a fórmula Y=log(-logP). LOG-NORMAL DISTRIBUTION DISTRIBUIÇÃO LOGNORMAL Se o logaritmo de uma variável está distribuído normalmente, então a

LONGITUDINAL STUDY ESTUDO LONGITUDINAL São aqueles que estudam mudanças ao longo do tempo. a desvantagem pode aparecer através do desconhecimento da verdadeira distribuição de x. . possivelmente com relação a uma intervenção. aleatória com distribuição LOGNORMAL LOSS FUNCTION FUNÇÃO DE PERDA No processo de decisão tendo como base a variável x. Esta função é chamada de função de perda. A extensão da desvantagem é geralmente uma função da verdadeira distribuição e da decisão que é realmente feita.variável é chamada de variável com distribuição lognormal. LOG-NORMAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA Variável lognormal.

M .

a função de densidade de uma variável independente das outras. a função de distribuição de uma variável independente das outras..θ ) que depende dos dados através da estatística t é chamada de verossimilhança marginal. ... MARGINAL MARGINAL DISTRIBUTION DISTRIBUIÇÃO MARGINAL Para um vetor de variáveis aleatórias.θ )=L(t..MARGINAL DENSITY FUNCTION FUNÇÃO DE DENSIDADE Para um vetor de variáveis aleatórias contínuas. a função de verossimilhança L(x1.xn. MARGINAL LIKELIHOOD VEROSSIMILHANÇA MARGINAL Seja t uma estatística usada para estimar um parâmetro θ .

. um processo [x1] é chamado de cadeia se o parâmetro de tempo é discreto. Em um deles. é chamado de cadeia se os valores de x são discretos.θ k). distribuição posteriori marginal de um parâmetro θ efeito dos outros parâmetro. ambos relacionados com o Processo de Markov. MARKOV PROCESS PROCESSO DE MARKOV Processo estocástico cuja distribuição de probabilidade condicional para o estado em um instante futuro. a função de probabilidade de uma variável independente das outras. O primeiro é preferível. MARGINAL PROBABILITY FUNCTION FUNÇÃO DE PROBABILIDADE é a distribuição a posteriori livre do MARGINAL Para um vetor de variáveis aleatórias discretas. MARKOV CHAIN CADEIA DE MARKOV Essa expressão é usada com dois sentidos diferentes..MARGINAL POSTERIOR DISTRIBUTION DISTRIBUIÇÃO A POSTERIORI Em um vetor a de parâmetros a i MARGINAL θ =(θ 1.. não é afetado da pelo história conhecimento adicional passada do processo. dado o estado do presente. . No outro..

neste caso se diz que o zero tem massa de probabilidade. ou conjunto de amostras emparelhadas são aquelas em que cada membro de uma amostra com está um emparelhado (relacionado) membro em cada amostra através de uma qualidade diferente das estudadas.MARKOV PROPERTY PROPRIEDADE MARKOVIANA Uma seqüência X1. em situações reais este valor pode ser observado com uma freqüência significativamente diferente de zero.. MATCHED SAMPLES AMOSTRAS EMPARELHADAS Um par.. MAXIMUM LIKELIHOOD ESTIMATOR (MLE) ESTIMADOR DE MÁXIMA VEROSSIMILHANÇA Qualquer estimador de um parâmetro obtido pelo método de máxima verossimilhança.... ...Xn tem a propriedade markoviana se a distribuição condicional de Xj dada a seqüência inteira X1.. MASS POINT AT ZERO PONTO DE MASSA EM ZERO Algumas distribuições de variáveis contínuas só valem para valores maiores a zero. porém.Xj-1 só depende dos valores mais recentes.

MEAN MÉDIA Geralmente utiliza-se média como abreviação de média aritmética que é a soma dos valores observados. dividida pelo número de elementos considerados na soma. MEAN OF A RANDOM VARIABLE MÉDIA DE UMA VARIÁVEL Também chamada de valor esperado. MEAN ABSOLUTE DEVIATION DESVIO ABSOLUTO MÉDIO Medida de dispersão derivada do desvio médio de observações a partir de uma medida central. dos quadrados de suas diferenças com relação a um valor . o quadrado médio de um conjunto de dados é a média aritmética central. sendo os desvios considerados em valor absoluto. ALEATÓRIA MEAN SQUARED ERROR ERRO QUADRADO MÉDIO Em forma geral.MAXIMUM LIKELIHOOD METHOD MÉTODO DE MÁXIMA VEROSSIMILHANÇA Método de estimação de parâmetros de uma população através do valor (valores) que maximiza (maximizam) a função de verossimilhança de uma amostra.

. MID-RANGE SEMI AMPLITUDE Para um conjunto de valores. METHOD OF MOMENTS MÉTODO DE MOMENTOS Método de estimação de parâmetros baseado na construção de sistemas de equações em que são igualados os momentos centrais com seus respectivos momentos amostrais. a . METROPOLIS-HASTINGS ALGORITHM ALGORITMO DE METRÓPOLIS E Algoritmo de MCMC baseado na HASTINGS utilização de uma distribuição auxiliar.. centrais ou típicos. MEDIAN MEDIANA A mediana é o valor da variável que divide a freqüência total em duas metades iguais.MEASURE OF LOCATION MEDIDA DE LOCAÇÃO Uma qualidade que pretende localizar uma distribuição ou um conjunto de valores amostrais através de quantidades que são.xn arrumados em ordem de magnitude.. de alguma forma. x1.. A idéia é gerar amostras da distribuição auxiliar. chamada distribuição proposta e aceitá-las como sendo da distribuição de interesse com uma certa probabilidade.

MISSING VALUE VALOR PERDIDO Palavra para representar um valor que não foi observado ou. .semi amplitude é definida como: (x1+xn)/2. Em análise estatística o modelo é representado geralmente por símbolos. isto é. em forma matemática. se observado. MODE MODA A observação mais freqüente de um conjunto de dados. porém também existem modelos representados em grafos. Existem técnicas para estimar estes valores. MODEL MODELO Um modelo é uma expressão formalizada de uma teoria ou da situação de causa que se assume ter gerado um conjunto de dados observados. foi perdido por razões alheias à pesquisa. MIXTURE OF DISTRIBUTIONS MISTURA DE DISTRIBUIÇÕES Um processo de obter uma média ponderada de um grupo de funções de distribuição que é uma nova função de distribuição.

MODEL CHOICE SELEÇÃO DE MODELO A seleção de modelos é uma tarefa de muita importância em estatística. Uma situação real pode ser representada através de vários modelos que passam a competir entre eles. MODEL SELECTION SELEÇÃO DE MODELOS Ver: Model choice . A seleção de modelos se encarrega de criar mecanismos para a escolhe do modelo que melhor representa os dados obtidos a partir de um problema real. Existem diversas ferramentas com esta finalidade. tomados cuidados especiais na hora de definir o modelo.MODEL CHECKING VERIFICAÇÃO DO MODELO A verificação do modelo consiste em avaliar o grau de ajuste deste aos dados disponíveis. que geralmente representam a ausência ou presença devem ser de uma característica. MODEL FOR BINARY RESPONSE MODELO PARA RESPOSTA BINÁRIA Quando os dados assumem dois valores possíveis. Um exemplo de modelo para este tipo de dado é o modelo de regressão logística.

ou.MOMENT MOMENTO Em geral. quando expandida como uma série de potências em t fornece os momentos de uma distribuição de freqüências como coeficientes das potências. ela é crescente ou decrescente. quando se fala em momento em torno de um valor central. MONTE CARLO MARKOV CHAIN METHODOLOGY MÉTODO DE MONTE CARLO EM CADEIAS DE MARKOV (MCMC) A idéia central por trás dos métodos de MCMC é criar uma cadeia de Markov fácil de simular e tem distribuição de MOMENTOS . MOMENT GENERATING FUNCTION FUNÇÃO GERADORA DE Função de uma variável t que. ∫ (x-m)rdF(x). MOMENT ESTIMATOR ESTIMADOR DE MOMENTOS Estimador de um parâmetro desconhecido de uma distribuição obtido pelo método dos momentos. isto é. ou f(xi)≤ f(xj) ou f(xi)≥ f(xj). ∫ xrdF(x). MONOTONIC FUNCTION FUNÇÃO MONOTÔNICA Função f(x) de forma que. um momento é o valor médio da potência de uma variável aleatória. para xi<xj. m.

wk..2.n-k. MOST EFFICIENT ESTIMATOR ESTIMADOR MAIS EFICIENTE Um estimador não viciado cuja variância não é maior que a de qualquer outro estimador não viciado é chamado estimador mais eficiente.w1. de forma que a soma desse pesos é 1..xn e se existem pesos dados por w0. a série de valores ut=Σ kwjxt+j.. MOST POWERFUL TEST TESTE MAIS PODEROSO Um teste de hipótese que é mais poderoso alternativa.equilíbrio dada pela distribuição de interesse. t=1.. MOVING AVERAGE MÉDIA MÓVEL Se uma série de tempo é dada por x1.. MONTE CARLO METHODS MÉTODOS DE MONTE CARLO Termo usado para denotar a solução de problemas matemáticos em um contexto matemático através de experimentos de amostragem...... contra uma hipótese ... é chamada de série de médias móveis.

. k) então.. uma situação em que existe uma relação linear que conecta as variáveis independentes.0≤ xi≤ n.. a distribuição de x1 eventos de primeiro tipo. 2.MULTICOLLINEARITY MULTICOLINEARIDADE Em análise de regressão. MULTINOMIAL DISTRIBUTION DISTRIBUIÇÃO MULTINOMIAL A distribuição discreta associada com eventos que podem ter mais de dois resultados: é a generalização da distribuição binomial. Se há k resultados possíveis incompatíveis e exaustivos de algum evento para o qual as probabilidades separadas são pi (i=1... MÚLTIPLA .. xk de k-ésimo tipo é f(x1.. x2 de segundo tipo..xk)=n!Π i(pixi/xi!). MULTINOMIAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA Variável aleatória discreta que tem distribuição multinomial. MULTINOMIAL MULTIPLE DECISION METHODS MÉTODOS DE DECISÃO Termo geral para descrever técnicas estatísticas para tratar problemas em que os possíveis resultados ou decisões são mais de dois.. . em n experimentos.

. exaustivas MÚLTIPLA baseados em observações de variáveis MULTIPLE MARKOV PROCESS PROCESSO MARKOVIANO MÚLTIPLO Processo estocástico em que as probabilidades de transição dependem de valores prévios em mais de um ponto. ou diminuição do valor médio. MULTIPLE REGRESSION REGRESSÃO MÚLTIPLA Regressão de uma variável dependente em mais de uma variável independente ou preditora.MULTIPLE DECISION PROBLEM PROBLEMA DE DECISÃO Problema de escolha de hipótese ou decisão dentre um conjunto exclusivas e de k alternativas aleatórias. Em muitos contextos a expressão é equivalente a processo auto-regressivo. MULTIPLICATIVE EFFECT EFEITO MULTIPLICATIVO Alguns fatores são representados através de efeitos que se multiplicam nas equações que formam um modelo. estes efeitos são chamados multiplicativos e expressam a influência do fator como uma proporção de aumento.

MULTIVARIATE PROCESSES PROCESSOS MULTIVARIADOS Uma classe de processos estocásticos envolvendo aleatória. MULTIVARIATE DISTRIBUTION DISTRIBUIÇÃO MULTIVARIADA A distribuição simultânea de p variáveis (p>1): ou de forma equivalente. MUTUALLY EXCLUSIVE EVENTS EVENTOS MUTUAMENTE Dois eventos são mutuamente MULTIVARIADA EXCLUSIVOS exclusivos quando a probabilidade deles . MULTIVARIATE REGRESSION MODEL MODELO DE REGRESSÃO Modelo de regressão com mais de uma variável dependente. não mais de uma variável de com Também ser chamados confundidos processos simultâneos ou vetoriais que devem processos multi-dimensionais que estão relacionados com a presença de mais de um parâmetro.MULTIVARIATE ANALYSIS ANÁLISE MULTIVARIADA Esta expressão é usada para denotar a análise de dados multivariados no sentido de cada indivíduo ter p variáveis observadas. a distribuição de probabilidades de p variáveis.

.acontecerem simultaneamente é identicamente igual a zero.

N .

então a família P de todas as densidades p é chamada de família conjugada natural com relação ao modelo de amostragem que tem função de verossimilhança l. a freqüência para x=j é o coeficiente de tj na expansão de (1-pt)n (1-p)n em potências de t.NATURAL CONJUGATE FAMILY OF DISTRIBUTIONS FAMÍLIA CONJUGADA DE DISTRIBUIÇÕES NATURAIS Se para qualquer verossimilhança l(θ . Por exemplo. existe uma constante k que define uma densidade p de forma que p(θ )=kl(θ . para todo vetor b não nulo. se os valores da variável são 0. NEGATIVE BINOMIAL DISTRIBUTION DISTRIBUIÇÃO BINOMIAL NEGATIVA Distribuição em que as freqüências relativas (probabilidades) são definidas por um binômio com índice negativo. NEGATIVE BINOMIAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA BINOMIAL NEGATIVA Variável aleatória discreta com distribuição binomial negativa.1. etc. . NEGATIVE DEFINITE MATRIX MATRIZ DEFINIDA NEGATIVA Uma matriz A é definida negativa se b ´Ab<0.2. Esta distribuição é também chamada de Pascal.x).x) obtida da família F.

m}.. pelo Um conjunto sistema I={1... NEIGHBORING CRITERIA CRITÉRIO DE VIZINHANÇA Em estatística espacial. NEIGHBORING EFFECT EFEITO DE VIZINHANÇA Em estatística espacial.. NEIGHBORHOOD SYSTEM SISTEMA DE VIZINHANÇA Considerar um grafo conexo G com vértices indexados m≤∞ . critério utilizado para definir os vizinhos dentro de uma região. . para um particular local só os vizinhos o influenciam. especificamente quando são utilizados os efeitos CAR. (b) j∈ δ i implica que i∈ δ j. o efeito de vizinhança assume que. Isto é uma extensão da propriedade markoviana para o caso espacial. ∆ ={δ i∈I} de subconjuntos de G é um sistema de vizinhança se para todo i∈I: (a) i∉ δ i.NEGATIVE MOMENTS MOMENTOS NEGATIVOS Os momentos de negativos freqüências de são uma os distribuição momentos dos recíprocos das potências de uma variável.

Este conceito é claramente definido para o caso em que as observações são de contagens e feitas em regiões fechadas de mapas. estados. estatísticas. Este algoritmo pode ser adaptado para a obtenção de estimadores de máxima verossimilhança ou a moda de uma distribuição. entre outras utilizações RAPHSON .NEIGHBORS VIZINHOS Em estatística espacial. precisando ser adaptada para o caso em que a quantidade de interesse é observada de forma contínua ao longo de toda a região de estudo. NESTED HYPOTHESIS HIPÓTESES ENCAIXADAS Seqüência de hipóteses em que a hipótese para um estágio está contida em todas as hipóteses posteriores da seqüência. NEWTON-RAPHSON ALGORITHM ALGORITMO DE NEWTON E Algoritmo iterativo usado para obter as raízes de uma função diferencial. definem-se vizinhos como locais que apresentam fronteiras geográficas comuns. condados. como municípios. etc..

e seja 0<α <1 fixo..xn)≤ k se (x1. θ ).xn)∈C*.. Está baseada na consideração de dois tipos de erros que podem ser cometidos na hora de julgar uma hipótese estatística...... Seja k uma constante positiva e C um subconjunto do espaço amostral que satisfaz: (a) Pθ 0[(x1. o teste correspondente à região crítica C é o teste mais poderoso de tamanho α para θ =θ 0 contra θ =θ 1... (b) λ =L(θ 0... θ )g(x) onde f e g são funções não negativas.xn) ∈C]=α ....NEYMAN’S FACTORIZATION CRITERIA CRITÉRIO DE FATORIZAÇÃO DE A estatística t é suficiente para θ se e somente se p(x|θ )=f(t. Pearson.xn)/ L(θ 1...xn)∈C e λ ≥ k se (x1.. onde θ é um parâmetro que pode ter dois valores possíveis θ 0 ou θ 1. NEYMAN NEYMAN-PEARSON LEMMA LEMA DE NEYMAN E PEARSON Seja x1. Neyman e E.. sendo C e C* complementares.... NEYMAN-PEARSON THEORY TEORIA DE NEYMAN E PEARSON Teoria geral de teste de hipótese..x1. atribuída a J. NOISE RUÍDO Termo conveniente para uma série de distúrbios aleatórios emprestados da .. Então.xn uma amostra aleatória de f(x.x1..

seja diferente do sinal recebido y. x. Estes tipos de Fisher. definida como a raiz quadrada do determinante da matriz de informação uniforme. o Em ruído teoria resulta de na comunicação. NON-INFORMATIVE PRIORS PRIORIS NÃO INFORMATIVAS São distribuições a priori que permitem fazer inferência baseadas em informação subjetiva análise mínima. tendo este último uma distribuição de probabilidade que depende de x.teoria de som. Exemplos destas prioris são a priori de Jeffreys. possibilidade de que um sinal enviado. neutra produzindo uma a a que permite os que estrutura evidência experimental tenha uma forte influência sobre resultados posteriori. NONRANDOM SAMPLE AMOSTRA DETERMINÍSTICA OU AMOSTRA NÃO ALEATÓRIA Amostra selecionada mediante um procedimento não aleatório. e a priori . NOMINAL SCALE ESCALA NOMINAL Escala de valores categóricos que podem ser considerados carentes permutáveis de e totalmente hierárquica.

ser convertida em uma distribuição com menos de p variáveis. então (X-np)/(np(1-p)) pode ser aproximada pela distribuição Normal com média igual a zero e variância igual a 1. .de amostras não podem ser usadas para fazer inferência. Se o número de ensaios n é muito grande e a probabilidade p de sucesso é muito pequena de forma que np>5 e np(1-p)>5. NONSINGULAR DISTRIBUTION DISTRIBUIÇÃO NÃO SINGULAR Distribuição multivariada de p variáveis que não pode. por nenhuma transformação linear das suas variáveis. NORMAL DISTRIBUTION DISTRIBUIÇÃO NORMAL A distribuição de freqüências com de variáveis contínuas amplitude infinita cuja função de densidade é: f(x)=exp(-(x-m)2/σ 2)/√2π σ 2. NORMAL APPROXIMATION TO BINOMIAL APROXIMAÇÃO NORMAL PARA BINOMIAL Seja X uma variável aleatória com distribuição binomial. NONSINGULAR MATRIX MATRIZ NÃO SINGULAR Matriz que possui um determinante não nulo.

NORMAL EQUATIONS EQUAÇÕES NORMAIS Conjunto construídas quadrados. eles possuem um ‘distúrbio’ na formação de afirmações exatas sobre outros de equações a simultâneas de para estimação parâmetros via método de mínimos NORMALIZADORA . NUISANCE PARAMETERS PARÂMETROS DE DISTÚRBIO Nas teorias tanto de estimação quanto de testes de significância surge o problema de encontrar uma distribuição desconhecidos de da amostragem que seja independente de certos parâmetros população. onde m é a média e σ o desvio padrão. NORMALIZING TRANSFORMATION TRANSFORMAÇÃO Transformação de variáveis com o objetivo de reduzir a distribuição original a uma Normal ou aproximadamente Normal. Embora estes parâmetros sejam essenciais para a especificação. NORMAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA NORMAL Variável aleatória contínua que tem distribuição Normal.-∞≤ x≤∞ .

NUMERICAL INTEGRATION METHODS MÉTODOS DE INTEGRAÇÃO Coleção de métodos usados para resolver problemas de integração em inferência. a dificuldade neste caso é contornada usando a distribuição de Student que não depende da variância. Em alguns contextos. porém. a hipótese que determina a probabilidade do erro tipo I. distinto de hipóteses alternativas que estão sob consideração. que dependem da variância da população.parâmetros. O caso típico de parâmetro de ‘distúrbio’ aparece na definição de intervalos de confiança para a média. este termo está relacionado com uma hipótese em particular em teste. Estes métodos são usados quando a solução analítica é inviável. NULL HYPOTHESIS HIPÓTESE NULA Em geral. o termo é restrito a uma hipótese em teste de “sem diferença”. É. principalmente quando a dimensão do espaço de parâmetros é moderada. NUMÉRICA O . entretanto.

OBSERVABLE VARIABLE VARIÁVEL OBSERVÁVEL Uma variável matemática ou estocástica. que não são diretamente observadas. a diferença de variáveis não observáveis que são incluídas em equações estruturais mas. cujos valores podem ser diretamente observados. .

OPERATING CHARACTERISTIC CURVE CURVA OPERATIVACARACTERÍSTICA Gráfico que representa as probabilidades de aceitar hipóteses alternativas quando uma hipótese nula é verdadeira nas ordenadas contra os valores da hipótese alternativa nas abscissas.OBSERVATIONAL STUDY ESTUDO OBSERVACIONAL Em um estudo observacional o pesquisador colhe a informação sobre os atributos ou faz as medições necessárias sem influenciar os eventos. OGIVE OGIVA Nome genérico da ogiva de Galton. . ODDS RATIO RAZÃO DE CHANCES Um termo alternativo para Risco relativo. ODDS CHANCES Divisão da probabilidade de sucesso e a probabilidade de insucesso para um experimento de Bernoulli. ONE-SIDED TEST TESTE UNILATERAL Teste de uma hipótese para a qual a região de rejeição está totalmente localizada em uma cauda da distribuição da estatística de teste.

ORDER OF A MARKOV CHAIN ORDEM DE UMA CADEIA DE MARKOV Número de tempos discretos do passado que determinam a probabilidade de ocorrência de um estado numa cadeia de Markov. ORDER STATISTICS ESTATÍSTICA DE ORDEM Quando uma amostra de uma variável está arrumada em ordem de magnitude. .OPERATING CHARACTERISTIC FUNCTION FUNÇÃO OPERATIVACARACTERÍSTICA Na teoria de decisões. estes valores ordenados são conhecidos como estatísticas de ordem. OPTIMUM LINEAR PREDICTOR PREDITOR LINEAR ÓTIMO Preditor de valores futuros de um processo estocástico linear em de forma de combinação observações passadas e que minimiza o erro médio quadrático de previsão. uma descrição da regra de decisão que fornece a probabilidade de aceitar hipóteses alternativas quando uma hipótese nula é verdadeira. e especialmente em controle de qualidade e análise seqüencial.

ou a técnica de amostragem não foi adequada. Tais valores são chamados discrepantes. sendo Ip a matriz identidade de ordem p. ORDINAL SCALE ESCALA ORDINAL Escala de valores categóricos ordenados por alguma hierarquia. OVER-DISPERSION SUPER DISPERSÃO O termo super dispersão significa que a variância da variável observada excede a variância nominal para a distribuição usada. em valores. OUTLIER VALOR DISCREPANTE Em uma amostra de n observações é possível para um número limitado de dados estarem separados. surgindo a questão de se eles são de uma população diferente.ORDERED SERIES SÉRIE ORDENADA Conjunto de valores de uma variável que possui uma seqüência natural no tempo ou no espaço. A incidência e o grau de super dispersão . ORTHOGONAL MATRIX MATRIZ ORTOGONAL Uma matriz quadrada A de ordem p é ortogonal se A’A=AA’=Ip. Não prática é comum encontrar situações em que existe super dispersão. do restante.

depende do campo de P .encontrada aplicação.

por exemplo). é mais encontrada em expressões que definem distribuições de probabilidade (parâmetros modelos populacionais) descrevem ou em que situações estocásticas (parâmetros de regressão. O domínio de variação permissível de parâmetros define a classe .PARAMETER PARÂMETRO Esta palavra é usada no seu significado matemático comum de uma quantidade desconhecida que pode variar numa amplitude de valores. Em estatística.

e V(m) é a variância de m. não necessariamente zero. PEARSON RESIDUAL RESIDUAL DE PEARSON O residual de Pearson. PARETO DISTRIBUTION DISTRIBUIÇÃO DE PARETO Uma relação empírica que descreve o número de pessoas y cuja renda é x. também chamada distribuição binomial negativa. A expressão é usada para denotar qualquer distribuição de freqüência desta forma. Utiliza dados amostrais. onde Y é uma variável com média m. rP é definido pela equação rP=(Y-m)/√V(m). A variável x pode ser medida de algum valor arbitrário. primeiramente definida por α Pareto (1897) com a forma y=Ax-(1+ ). . 0≤ x≤∞ .de população ou modelo sob consideração. PASCAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA PASCAL Variável aleatória discreta com distribuição Pascal. PARAMETER ESTIMATION ESTIMAÇÃO DE PARÂMETRO Procedimento estatístico utilizado para aproximar o valor verdadeiro de um parâmetro proveniente de uma população. se relacionadas à renda ou não.

dada por e- λ r/r! POISSON PROCESS PROCESSO DE POISSON Um processo estocástico que pode ser considerado como um caso específico de . Alguns escritores preferem usar o termo “centil” em vez de “percentil”.. ... isto é.... Q é função de x1.... r..xn e θ .xn.θ ). na qual são observadas algumas características de interesse.. Seja Q=q(x1. POINT PATTERN PADRÃO PONTUAL Conjunto de dados que consiste numa série de locais de uma região geográfica em estudo. 2......xn uma amostra aleatória de p(x. então Q é chamada de estatística pivotal..θ ). 1. Esta série de valores específica é mais usada em educação e psicologia.. PIVOTAL STATISTIC ESTATÍSTICA PIVOTAL Seja x1.PERCENTILE PERCENTIL A série de valores que dividem a freqüência total em cem partes iguais. Se Q tem distribuição que não depende de θ . POISSON DISTRIBUTION DISTRIBUIÇÃO DE POISSON Uma distribuição relativas discreta em com valores freqüências λ variáveis 0.

p(θ |X). está contida na distribuição a posteriori.um Processo de Nascimento em que o parâmetro λ n é uma constante λ . POISSON RANDOM VARIABLE VARIÁVEL ALEATÓRIA DE POISSON Variável aleatória discreta com distribuição de Poisson. O preditor tem a forma β 0+β 1x1+β 2x2+β 3x3+. POLYNOMIAL REGRESSION REGRESSÃO POLINOMIAL Regressão que contém potências de uma variável independente.. que pode ser calculada através do teorema de Bayes. para todo vetor b não nulo. . POSITIVE RANDOM VARIABLE VARIÁVEL ALEATÓRIA POSITIVA Variável aleatória que assume valores positivos. POSITIVE DEFINITE MATRIX MATRIZ DEFINIDA POSITIVA Uma matriz A é definida positiva se b’Ab>0. X. POSTERIOR DISTRIBUTION DISTRIBUIÇÃO A POSTERIORI Depois de ter observado um conjunto de dados. relacionado aos dados através de p(x|θ ). a quantidade de informação conhecida sobre um parâmetro θ ..

POWER FUNCTION FUNÇÃO PODER Quando as hipóteses alternativas para uma hipótese nula formam uma classe que pode ser especificada por um parâmetro θ função de θ o poder de um teste de é chamado de função hipótese nula considerado como uma poder. A precisão é quantificada variância. . como a recíproca da PRECISION MATRIX MATRIZ DE PRECISÃO Inversa da matriz variáveis aleatórias. previsão é o processo de determinar a magnitude de variáveis estatísticas em alguns pontos de tempo futuros. PRECISION PRECISÃO Refere-se ao grau de dispersão existente em um conjunto de dados. que contém as variâncias e covariâncias de um vetor de PREDICTION PREVISÃO Em geral. Comparações entre o número de diferentes testes são feitos superpondo os gráficos das correspondentes funções poder.

Eles estabelecem que para eventos A e B. PRIOR INFORMATION INFORMAÇÃO A PRIORI Informação inicial existente sobre algum parâmetro de interesse. ou o limite de freqüência em uma série aleatória infinita. a probabilidade P satisfaz: (a) 0≤ P(A)≤ 1.PRIOR DISTRIBUTION DISTRIBUIÇÃO A PRIORI Representação probabilística da informação inicial existente sobre um parâmetro de interesse antes de realizar algum experimento relacionado com tal parâmetro. PROBABILITY PROBABILIDADE Um conceito básico que pode ser considerado indefinível. PRIOR MEAN MÉDIA A PRIORI Valor esperado do parâmetro usando a distribuição a priori. (c) P(A∪ B)=P(A)+P(B)-P(A∩ B). PROBABILITY AXIOMS AXIOMAS DE PROBABILIDADE Axiomas que definem a teoria clássica de probabilidades. expressa de alguma forma um “grau de crença”. . (b) P(Ω )=1 sendo Ω o espaço amostral.

xp como função das suas quantidades. PROBABILITY DISTRIBUTION DISTRIBUIÇÃO DE PROBABILIDADE Distribuição que fornece a probabilidade de um valor x como função do próprio valor. π x. sem levar em conta dados históricos... o modelo probito considera a proporção de sobreviventes. a probabilidade de ocorrências conjuntas do conjunto de variáveis x1.. que é geralmente medida na escala logarítmica. para a dose x como função de x. . P-VALUE P-VALOR A probabilidade de ter obtido um conjunto de dados se a hipótese nula for verdadeira.. PROBIT MODEL MODELO PROBITO Em modelos lineares generalizados.PROBABILITY DENSITY FUNCTION FUNÇÃO DE DENSIDADE DE PROBABILIDADE Nome alternativo para a função de freqüências quando a variável de estudo é contínua. ou de forma mais geral. PROSPECTIVE STUDY ESTUDO PROSPECTIVO É um tipo de estudo em que os dados são coletados a partir do início do mesmo.

Q .

. análises de variância. em particular. QUARTILE QUARTIL Há três valores que separam a freqüência total de uma distribuição em quatro partes iguais. O valor central é chamado de Mediana e os outros dois o quartil superior e o inferior respectivamente. A forma quadrática é importante em análises multivariáveis e.QUADRATIC FORM FÓRMULA QUADRÁTICA Uma função quadrática homogênea da forma Q=Σ iΣ jaijxixj=x’Ax onde A é a matriz da forma quadrática e geralmente assumida como simétrica.

R .

RANDOM EFFECT EFEITO ALEATÓRIO Efeito de algum fator não sistemático com probabilidade de ocorrência determinada por alguma distribuição de probabilidades. RANDOM SAMPLE AMOSTRA ALEATÓRIA Amostra coletada por um método de seleção aleatória. uma variável aleatória. é uma função com domínio Ω e contradomínio a reta real. estendendo o conceito. uma série de tratamentos aplicados para uma série de unidades é considerado tratamento aleatório aplicado quando para o qualquer unidade dada é escolhido aleatoriamente . RANDOM VARIABLE VARIÁVEL ALEATÓRIA Para um determinado espaço amostral Ω . e. denotada por X. RANDOM SELECTION SELEÇÃO ALEATÓRIA Método para selecionar unidades de uma amostra de forma que cada amostra possível tenha uma probabilidade fixa e determinada de ser selecionada. RANDOMIZATION ALEATORIZAÇÃO Uma série de objetos é considerado aleatório quando arranjados em uma ordem aleatória.

permitindo estimações sem vício de erro. RAO-BLACKWELL THEOREM TEOREMA DE RAO E BLACKWELL Teorema que fornece uma forma de construir um estimador não viciado de variância suficiente. mínima a partir de um estimador não viciado e um estimador . RANGE AMPLITUDE O valor maior menos o valor menor de uma série de variáveis. A amplitude é uma medida de dispersão. conseqüentemente. pode disponibilizar uma estimativa razoável do desvio padrão populacional.daqueles alocados. RANDOMIZED BLOCKS disponíveis ou ainda não BLOCOS ALEATORIZADOS Um experimento em que cada bloco contém uma replicação completa dos tratamentos que são alocados para várias unidades nos blocos de uma maneira aleatória e. mas em termos de média de amplitude em amostras repetidas.

1 – F(t) onde F(t) é a função de distribuição dos tempos de vida. ou seja. estatístico existentes para entre investigar diversas REGRESSOR REGRESSOR Um sinônimo para variável independente em relação a uma regressão.Ocorre em uma variedade de contextos específicos. Outras definições também estão presentes nas áreas de ensaios biológicos e testes educacionais.REGRESSION ANALYSIS ANÁLISE DE REGRESSÃO Método relações variáveis. RESIDUAL RESÍDUO Um termo geral que denota a quantidade restante depois de alguma outra quantidade ter sido subtraída. RELIABILITY CONFIABILIDADE Este termo é usado como a probabilidade de sobrevivência após o tempo tn. REPLICATION REPLICAÇÃO A execução de um experimento ou pesquisa mais de uma vez para aumentar a precisão e também obter uma estimação mais próxima de um erro de amostragem. .

ROBUSTNESS ROBUSTEZ Um teste é considerado robusto se os pontos de significância de um teste variam pouco se a população se afasta substancialmente da normalidade. e tem um significado especial na teoria de Funções de Decisão. . o risco é o custo esperado de um experimento mais o valor esperado da função de perda. sendo obtidos de recursos já existentes. um procedimento estatístico é descrito como robusto se não for sensível às suposições iniciais a qual é dependente.RETROSPECTIVE STUDY ESTUDO RETROSPECTIVO É o tipo de estudo em que os dados se referem a eventos passados. Em um sentido mais geral. RISK RISCO Esta palavra aparece em estatística na sua forma simples. Onde um número de decisões possíveis tem uma função de perda associada.

S .

SAMPLE SPACE ESPAÇO AMOSTRAL A série de pontos amostrais correspondentes a todas as amostras possíveis. . SAMPLE STANDARD DEVIATION DESVIO PADRÃO AMOSTRAL É o desvio padrão calculado para uma amostra particular. SAMPLE MEDIAN MEDIANA AMOSTRAL É a mediana calculada para uma amostra particular. SAMPLE VARIANCE VARIÂNCIA AMOSTRAL Variância de uma amostra. SAMPLE RANGE AMPLITUDE AMOSTRAL É a diferença entre o maior e o menor valor de uma amostra. Às vezes. O domínio permissível de variação de um ponto amostral.SAMPLE AMOSTRA Qualquer subconjunto de elementos de uma população. SAMPLE MEAN MÉDIA AMOSTRAL É a média calculada para uma amostra particular. conhecido como descrição do espaço ou espaço de eventos.

SAMPLING DISTRIBUTION DISTRIBUIÇÃO AMOSTRAL A distribuição de uma estatística ou série de estatísticas em todas as amostras possíveis que podem ser encontradas de acordo com um esquema de amostragem específico. REPOSIÇÃO . a amostragem será “sem reposição”. ou unidade de estágio mais elevado em que a amostragem aleatória simples com unidades múltipla. SAMPLING FRACTION FRAÇÃO DE AMOSTRAGEM A proporção do número total de unidades amostrais na população. A expressão quase sempre está relacionada com um esquema de amostragem envolvendo seleção aleatória e muitas vezes se refere à distribuição da função de um número fixo n de variáveis independentes. é feita. depois das suas características serem registradas. a amostragem é chamada de “com reposição”. amostrais quando de contagem com amostrada reposição. estrato. SAMPLING WITH REPLACEMENT AMOSTRAGEM COM Quando uma unidade de amostragem é extraída de uma população finita e é retornada para aquela mesma população. Caso contrário.

por exemplo. SEASONALITY SAZONALIDADE Em análise de séries de tempo. que mostra a dispersão e associação existente entre elas.θ )=∂ logp(X|θ )/∂ θ . SCORE FUNCTION FUNÇÃO DE ESCORE A função de escore de X. Neste caso. .SCALE MODEL MODELO DE ESCALA X tem um modelo de escala se uma função g e a quantidade σ existem de forma que a distribuição de X dado σ satisfaz f(x|θ )=σ -1g(x/σ ).θ ). é definida como U(X. σ é chamado de parâmetro de escala. cada uma representada em um eixo. sendo p(X| θ ) a distribuição de X. SCATTERPLOT GRÁFICO DE DISPERSÃO Gráfico de duas variáveis. SCALE PARAMETER PARÂMETRO DE ESCALA Um parâmetro de uma distribuição de probabilidade que está relacionado funcionalmente com a escala da variável. o desvio padrão em uma distribuição normal. denotada por U(X. a parte do movimento atribuída ao efeito das estações do ano.

porém pode ser simulado para diversas condições em forma iterativa usando valores iniciais numéricos adequados. SIMULATION MODEL MODELO DE SIMULAÇÃO Modelo de um sistema dinâmico complicado para achar uma solução analítica explícita. . a proporção de positivos corretamente identificados pelo teste clínico. SKEWNESS SIMETRIA Um termo antigo para “simetria” em uma distribuição de freqüência. a medida daquela simetria. SINGULAR MATRIX MATRIZ SINGULAR Matriz que possui um determinante igual a zero.SENSITIVITY SENSIBILIDADE Em ensaios clínicos. SIMPLE HYPOTHESIS HIPÓTESE SIMPLES Hipótese estatística que assume um único valor para o parâmetro de estudo. SIMULATION METHODS MÉTODOS DE SIMULAÇÃO Coleção de técnicas que consistem na geração aleatória de amostras de distribuições de interesse.

SNEDECOR F DISTRIBUTION DISTRIBUIÇÃO F DE SNEDECOR Um termo popular para a distribuição da razão de variâncias. SPATIAL DEPENDENCE DEPENDÊNCIA ESPACIAL Condição que caracteriza a associação existente entre observações devido a causas espaciais. SPATIAL PATTERNS PADRÕES ESPACIAIS Padrão de comportamento de uma variável no espaço. menores. simultaneamente. . SPACE-TIME MODEL MODELO ESPAÇO-TEMPORAL Modelo estatístico as que considera. SPACE-TIME ATRIBUTES CARACTERÍSTICAS ESPAÇOTEMPORAIS Valores observados ao longo do tempo e em diversos locais geográficos. características temporais e espaciais de um fenômeno.SMOOTHING ALIZAMENTO O processo de remover flutuações em uma série ordenada para que o resultado seja “suave” no sentido em que as primeiras diferenças são regulares e diferenças de ordem mais elevadas.

STATIONARY PROCESS PROCESSO ESTACIONÁRIO O processo estocástico estacionário multivariada {xi} se é a de estritamente distribuição xt(1)+h.SPECIFICITY ESPECIFICIDADE Em ensaios clínicos. STANDARD NORMAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA NORMAL PADRONIZADA Variável aleatória com distribuição Normal de média 0 e variância 1... SQUARE ROOT TRANSFORMATION TRANSFORMAÇÃO DA RAIZ Uma transformação de variáveis que é usada para estabilizar a variância de dados amostrais obtidos de uma população Poisson.. a proporção de negativos corretamente identificados pelo teste clínico..xt(2)+h.xt(n)+h é independente de h . É igual à raiz quadrada positiva da variância. QUADRADA STANDARD DEVIATION DESVIO PADRÃO Medida de dispersão muito usada. A transformação da raiz quadrada leva a mesma relação para a distribuição de Poisson como a transformação do arco seno para a transformação binomial.

O processo é chamado estacionário....t(n).t(1). de forma geral.. mas não necessariamente.. para Isto uma ocorre equação de valores introduzindo-se as variáveis uma por vez ou começando com toda a série e depois os rejeitando um por vez.para todo conjunto finito de valores t(1)+h.t(n)+h. ou.. geralmente. se existem média e variância que não dependem de t. amostrais. O critério para se aceitar ou rejeitar uma variável geralmente depende da extensão pela .. de um mecanismo probabilístico que gera as observações. STATISTICAL HYPOTHESIS HIPÓTESE ESTATÍSTICA Hipótese sobre os parâmetros ou a forma da distribuição de probabilidades de uma população. em sentido amplo. de algum uma função como parâmetro um de estimador população.t2. STATISTIC ESTATÍSTICA Um valor de resumo calculado a partir de uma amostra observada. STEPWISE REGRESSION REGRESSÃO STEPWISE Um método de selecionar a melhor série de variáveis de regressoras regressão.. ou populações.

. . x2. STUDENT T DISTRIBUTION DISTRIBUIÇÃO T DE STUDENT Distribuição da razão da média amostral proveniente de uma distribuição Normal e uma variável χ 2.. SYMMETRIC MATRIX MATRIZ SIMÉTRICA Seja uma matriz A com valores aij. SUFFICIENCY SUFICIÊNCIA Uma propriedade de um estimador definida por R. A.qual ela afeta o coeficiente de correlação múltipla. A é uma matriz simétrica se aij=aji. xn dado t. toda a informação da amostra relevante para a estimação de θ e o conhecimento de t e sua distribuição de amostragem é “suficiente” para dar tal informação.. então. Um estimador t é considerado suficiente para um parâmetro θ se a distribuição de uma amostra x1. não depende de θ . A distribuição de t contém. para todo i e j. Fisher (1921).. SUFFICIENT STATISTIC ESTATÍSTICA SUFICIENTE Qualquer estatística que possui a propriedade de suficiência.

T TCHEBYCHEV’S INEQUALITY DESIGUALDADE DE TCHEBYCHEV Se g(x) é uma função não-negativa de uma variável x. a desigualdade de .

. A qualidade essencial da série é a ordem de observações de acordo com a variável do tempo. TRANSITION PROBABILITY PROBABILIDADE DE TRANSIÇÃO Na teoria de processos estocásticos. TEST STATISTIC ESTATÍSTICA DE TESTE Uma função de uma amostra de observações que oferece um critério para testes de uma hipótese estatística. a probabilidade probabilidade Ek em de transição que é a um condicional. TIME SERIES SÉRIE TEMPORAL Uma série temporal é uma série de observações característica fenômeno ordenadas quantitativa individual ou de de uma um coletivo considerado em diferentes pontos de tempo. Embora não seja essencial. Pr{g(x)>k}≤ E[g(x)]/k. tempo sistema estabelecido em Ej mudará para algum designado posteriormente. é comum para esses pontos serem eqüidistantes no tempo.Tchebychev (1874) estabelece que para cada k > 0.

TYPE I ERROR ERRO TIPO I Um termo alternativo para erro α ou Erro de primeiro tipo. em . TYPE II ERROR ERRO TIPO II Um termo alternativo para erro β ou Erro de segundo tipo. Consiste em rejeitar uma hipótese verdadeira. Consiste aceitar uma hipótese falsa.

UNIFORM DISTRIBUTION DISTRIBUIÇÃO UNIFORME Distribuição de probabilidades que fornece a mesma probabilidade de ocorrência a cada um dos possíveis valores da variável. .U UNBIASSED ESTIMATOR ESTIMADOR NÃO VICIADO Estimador cujo vício é igual a zero.

UNIFORM RANDOM VARIABLE VARIÁVEL ALEATÓRIA UNIFORME Variável aleatória. V . que tem distribuição uniforme. discreta ou contínua.

qualquer quantidade que varia. uma variável no sentido matemático. VARIABLE VARIÁVEL Geralmente. por exemplo. VARIABILITY VARIABILIDADE Uma característica que pode assumir diversos valores numéricos é chamada de variável. Mais precisamente. .VAGUE PRIOR PRIORI VAGA Distribuição a priori que não fornece muita informação sobre o parâmetro de interesse. e a susceptibilidade com que muda de valor é chamada de variabilidade.

VARIOGRAM VARIOGRAMA Para uma variável Y. COVARIÂNCIA . sendo h uma distância entre dois locais quaisquer. É conveniente usar a mesma palavra para se referir a características não mensuráveis. “sexo” é uma variável neste sentido. 1918) é o segundo momento de uma distribuição de freqüência considerada em torno da média aritmética.uma quantidade que pode tomar qualquer uma de uma série específica de valores. Por exemplo. VARIANCE-COVARIANCE MATRIX MATRIZ DE VARIÂNCIAPara um vetor de variáveis aleatórias. VARIANCE VARIÂNCIA A variância (Fisher. masculino ou feminino. o variograma é definido como: γ (h)=E[Y(x+h)-Y(x)]2/2. a matriz de variância-covariância é aquela que contém as variâncias das variáveis na diagonal principal e as covariâncias entre essas variáveis fora da diagonal principal. desde que um indivíduo humano pode tomar um de dois valores. observável no local x do espaço.

W .

WEIBULL DISTRIBUTION DISTRIBUIÇÃO DE WEIBULL Distribuição da forma f(x)=k(x-ε )k-1(v- ε )-kexp{-[(x-ε )/(v-ε )]k} com x. WILCOXON’S TEST TESTE DE WILCOXON Teste não paramétrico de comparação de médias. . Está baseado nos signos das diferenças dos valores. WISHART DISTRIBUTION DISTRIBUIÇÃO DE WISHART A distribuição conjunta de variâncias e covariâncias em amostras de uma população Normal p-variada.v>ε e k>1. dada por Wishart em 1928.

X .

Y .

Z .

Space-time Modeling of Non-Negative Variables with Mass Point at Zero. & PEREIRA Basílio B. A. 1996. VELARDE. Luis G. BAILY. . Peter J. Statistical Inference: An integrated approach. London: Chapman & Hall. Dani. 1991. Tecnical Report # 141: DME – UFRJ. London: Chapman & Hall. Kjell A. 1978 MIGON. MIGON. London: Edward Arnold.. & NELDER Fres. Anthony. Probabilidade e Estatística. Hélio S. J. & GARMERMAN. 1999. London: Arnold.C. P. Bayesian Inference. 1994. C. Tradução de Alfredo Alves de Faria.C. BICKEL.. Inc. 2ed. Mathematical Statistics: Basic ideas and selected topics. Harold J. São Paulo: McGraw – Hill do Brasil. 1991. T. Volume 2B of Kendall’s Advanced Theory of Statistics.BIBLIOGRAFIA ALTMAN. Generalized Linear Models. USA: Willy International. Douglas G. Helio S. Rio de Janeiro: 2001. Murray R. & GATRELL. 1977. 2ed. Interactive Spatial Data Analysis. LARSON. DOBSUM.. 1974 SPIEGEL. San Francisco: Holden – Day. Practical Statistics for Medical Research. MC CULLAGH. Introducion to Probability: Theory and Satistical Inference. O’HAGAN. London: Longman.A.

. B. Springer. 1997.D. 2nd edition.VENABLES.N. W. Modern Applied Statistics with S-PLUS. & RIPLEY.

You're Reading a Free Preview

Descarregar
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->