GLOSSÁRIO DE ESTATÍSTICA

FABIANA R. RAVAGNANI LUCIANA CATELAN

GLOSSÁRIO DE ESTATÍSTICA
1ª Edição 2002

NETRA São Paulo

NETRA (Núcleo de Estudos de Tradução) 2002 CENTRO UNIVERSITÁRIO IBERO-AMERICANO Av. Brigadeiro Luis Antônio, 871 CEP: 01317-001 Tel: 3188-670

CENTRO UNIVERSITÁRIO IBERO-AMERICANO CURSO DE LETRAS – TRADUTORES E INTÉRPRETES 5º PERÍODO – 1º SEMESTRE – MANHÃ PROFESSORA RESPONSÁVEL: VALDEREZ CARNEIRO DA SILVA COORDENADORA DO NETRA: VALDEREZ CARNEIRO DA SILVA GLOSSÁRIO EXTRAÍDO A PARTIR DO RELATÓRIO TÉCNICO Nº 141/2001 DME-IM-UFRJ SOB O TÍTULO SPACE-TIME MODELING OF NONNEGATIVE VARIABLES WITH MASS POINT AT ZERO DE LUIS GUILLERMO COCA VELARDE, HÉLIO S. MIGON E BASÍLIO DE B. PEREIRA

FABIANA R. RAVAGNANI LUCIANA CATELAN

que com tanta paciência. colaborou com o desenvolvimento deste trabalho. E também não podemos nos equecer daqueles que nos ajudaram na elaboração e finalização deste: os nossos amigos mais próximos e queridos professores. . atenção e boa vontade.Agradecemos ao nosso perito Luis Guilhermo.

..........................................................................................................................................................................LIX Letra A................................................108 Letra O.........................................................................................................................................................................1 Letra B............................82 Letra L ...........................................................................................................................................................137 Letra T......................................................XIII Prefácio...............................................XVII Sumário Português-Inglês.........................................................149 Letra V.......................................................................................................................................................154 XI ......................................................................................................................................................................................................................151 Letra W.........................................................................................................70 Letra J............................................................................................................................................................................................................................................................................................................................................132 Letra S.....................19 Letra D.............................................................85 Letra M................................................................................................................................32 Letra E.........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................122 Letra Q.....................................................................................................................................................................................ÍNDICE Apresentação ...................................................................................................................................................................................49 Letra G...............................XV Sumário Inglês-Português.............95 Letra N....................................................................40 Letra F.......................................................................................65 Letra I..........................................................................................................................................................57 Letra H..............................................................................................................130 Letra R...........................................................146 Letra U...................................................................................79 Letra K..................................10 Letra C..........................................................................................................................................117 Letra P.................................................................................................

... 161 ..............................................158 Bibliografia...156 Letra Y......................................................................................................................................................................................................................................................................................157 Letra Z .....................................................Letra X .........................................................................................................................................................................................................................................159 Dados do informante...

foram escolhidos pelo nosso perito apenas 526. que. para um melhor entendimento de termos estatísticos presentes em estudos específicos e também presentes no cotidiano. segundo ele. . Entre 1.500 verbetes encontrados nos materiais que pesquisamos. O maior objetivo deste trabalho é tentar auxiliar estudantes. exatas e também humanas.APRESENTAÇÃO Esse glossário de Estatística foi elaborado a partir de diversas fontes como livros didáticos. apostilas e aulas que englobam os campos de estudos das áreas biológicas. professores e leigos sobre o assunto. são os mais recorrentes.

tendo aplicações relevantes na ciência. é natural que a mídia apresente diariamente grande quantidade de informação estatística incluindo expressões técnicas próprias da área na linguagem das pessoas comuns. Desta forma. em administração. como conseqüência da grande quantidade de abordagens. na indústria. a inexistência de um material que contenha uma breve explicação ou significado de alguns vocábulos ou expressões. Por outro lado. na medicina e em toda tarefa do dia a dia. com o objetivo de ajudar ao melhor entendimento de um texto estatístico. O presente trabalho é um esforço para elaborar um glossário que reúna os vocábulos e expressões de uso freqüente e os de recente aparição na literatura estatística.PREFÁCIO A Estatística é uma área que está bastante difundida nos diversos campos do conhecimento humano. no governo. métodos e ferramentas na área. dificulta a leitura dos textos técnicos entre os próprios estudantes e usuários da Estatística. Luis Guillermo Coca Velarde .

SUMÁRIO INGLÊS/PORTUGUÊS A Absolute Deviation Absolute error Absolute value function Absorving Markov chain Absorving state Accelerated testing Acceptance region Accuracy Additive model Additivity Aggregation AIC (Akaike Information Criteria) Algorithm Almost certain Alternative hypotheses Analysis of covariance Analysis of variance Ancillary statistic Arrhenius model Asymptotic confidence interval Asymptotic distribution Asymptotic Normality Asymptotic tests Asymptotic tests of hypothesis Desvio absoluto Erro absoluto Função de valor absoluto Cadeia de Markov absorvente Estado absorvente Teste acelerado Região de aceitação Acuracia Modelo aditivo Aditividade Agregação AIC (Critério de Informação de Akaike) Algoritmo Quase certo Hipótese alternativa Análise de covariância Análise de variância Estatística ancilar Modelo de Arrhenius Intervalo de confiança assintótico Distribuição assintótica Normalidade assintótica Testes assintóticos Testes assintóticos de hipótese 4 4 4 4 4 5 5 5 6 6 6 7 7 2 2 2 2 2 2 3 3 3 3 3 .

Atributo Autocorrelação Coeficiente de autocorrelação Função de autocorrelação Função de autocovariância Auto-regressão Fator auto-regressivo Modelo auto-regressivo Promédio 7 7 7 7 8 8 8 8 9 9 B Back-fitting algorithm Backward elimination Bartlett’s test Bayes decision theory Bayes’ estimation Bayes factor Bayes risk Bayes sequential nature Bayes solution Bayes theorem Bayesian approach Bayesian inference Behrens-Fisher test Bernoulli distribution Bernoulli random variable Bernoulli trial Algoritmo de back-fitting Eliminação backward Teste de Bartlett Teoria de decisão de bayesiana Estimação de Bayes Fator de Bayes Risco de Bayes Natureza seqüencial do teorema de Bayes Solução de Bayes Teorema de Bayes Abordagem bayesiana Inferência bayesiana Teste de Behrens e Fisher Distribuição de Bernoulli Variável aleatória Bernoulli Experimento de Bernoulli 12 12 13 13 13 13 14 14 14 11 11 11 11 12 12 12 .Asymptotic theory Attribute Autocorrelation Autocorrelation coefficient Autocorrelation function Autocovariance function Autoregression Autoregressive factor Autoregressive model Average Teoria assintótica Característica.

Best estimator Beta distribution Beta-binomial distribution Bias BIC (Bayesian Information Criteria) Bilinear model Bimodal distribution Binary data Binomial distribution Binomial random variable Birth and death process Bivariate binary regression Bivariate distribution Blackwell’s theorem Bonferroni inequality Bootstrap method Box and Jenkins model Boxplot Brownian motion process Melhor estimador Distribuição Beta Distribuição beta-binomial Vício BIC (Critério de Informação Bayesiana) Modelo bilinear Distribuição bimodal Dados binários Distribuição binomial Variável aleatória binomial Processo de vida e morte Regressão binária bivariada Distribuição bivariada Teorema de Blackwell Desigualdade de Bonferroni Método de bootstrap Modelo de Box e Jenkins Diagrama de caixa Processo de movimento browniano 14 15 15 15 15 15 16 16 16 16 17 17 17 17 17 18 18 18 18 C Canonical correlation Canonical link CAR (conditional autoregressive) Case-control study Cauchy distribution Censored data Censoring Central limit theorem Characteristic root Correlação canônica Ligação canônica CAR (condicional auto-regressivo) Estudo de caso-controle Distribuição de Cauchy Dados censurados Censura Teorema do limite central Raiz característica 20 20 21 21 21 21 22 22 22 .

Chebychev inequality Chi-square distribution Choleski decomposition Classical approach Coefficient of variation Cohort study Collinearity Complementary log-log Complete families of distributions Completeness of statistic Component of variance Composite hypothesis Conditional density function Conditional independence Conditional likelihood Conditional posterior distributions Conditional probability Confidence coefficient Confidence interval Conjugate family of distributions Consistent estimator Continuity correction Continuous random variable Control Correlation Correlation coefficient Covariance Covariance function Covariate Cramer-Rao inequality Desigualdade de Chebychev Distribuição Chi-quadrada Decomposição de Choleski Abordagem clássica Coeficiente de variação Estudo cohorte Colinearidade Log-log complementar Famílias completas de distribuição Completitude da estatística Componente de variância Hipótese composta Função de densidade condicional Independência condicional Verossimilhança condicional Distribuições a posteriori condicionais Probabilidade condicional Coeficiente de confiança Intervalo de confiança Família conjugada de distribuições Estimador consistente Correção por continuidade Variável aleatória contínua Controle Correlação Coeficiente de correlação Covariância Função de covariância Covariável Desigualdade de Cramer e Rao 22 23 23 23 23 23 24 24 24 24 24 25 25 25 25 26 26 26 26 27 27 27 27 28 28 28 28 29 29 29 .

Critical region Cross-sectional study Curve fitting Curvilinear regression Curvilinear trend Cut-off Cycle Região crítica Estudo cross-sectional Ajuste de curva Regressão curvilínea Tendência curvilínea Ponto de corte Ciclo 29 30 30 30 30 31 31 D De Finetti’s representation theorem Decile Decision function Decision rule Decision space Decision theory Decomposition Degree of freedom Density function Dependent variable Descriptive statistics Deterministic process Deviance function Dichotomy Dirichlet distribution Discrepancy function Discriminatory analysis Dispersion Distribution free method Distribution function Double exponential distribution Teorema de representação de De Finetti Decil Função de decisão Regra de decisão Espaço de decisão Teoria de decisão Decomposição Grau de liberdade Função de densidade Variável dependente Estatística descritiva Processo determinístico Função de deviance Dicotomia Distribuição de Dirichlet Função de discrepância Análise discriminante Dispersão Método livre de distribuição Função de distribuição Distribuição exponencial dupla 33 33 33 33 34 34 34 34 35 35 35 35 36 36 36 36 36 37 37 37 38 .

Dummy variable Durbin-Watson statistic Dynamic model

Variável dummy ou Variável latente Estatística de Durbin e Watson Modelo dinâmico

38 39 39

E
Efficiency Efficient estimator Eigenvalue Elementary unit Elimination of parameters EM algorithm Empirical Bayes estimator Empirical Bayes procedure Empirical distribution function Equally correlated distribution Equilibrium Ergodic chain Ergodicity Erlangian distribution Error Estimate Estimation Estimator Event Evolutionary process Exact statistical method Exchangeability Expected value Experimental study Exploratory analysis Eficiência Estimador eficiente Autovalor Unidade elementar Eliminação de parâmetros Algoritmo EM Estimador de Bayes empírico Procedimento de Bayes empírico Função de distribuição empírica Distribuição de correlação constante Equilíbrio Cadeia ergódica Ergodicidade Distribuição de Erlang Erro Estimativa Estimação Estimador Evento Processo evolucionário Método estatístico exato Permutabilidade Valor esperado Estudo experimental Análise exploratória 45 45 46 46 46 46 47 47 41 41 41 41 42 42 42 42 43 43 43 43 44 44 44 44 45

Exponential distribution Exponential family Exponential random variable Exponential smoothing Extrapolation Extreme values Extreme value density

Distribuição exponencial Família exponencial Variável aleatória exponencial Suavização exponencial Extrapolação Valores extremos Densidade de valor extremo

47 47 48 48 48 48 48

F
Factor Factor matrix Factor pattern Factorial analysis Factorial design False positive F-distribution Fellegi’s method Fiducial distribution Fiducial inference Filter Finite Markov chain Finite population correction First passage time Fisher information Fitted value Follow-up Forecasting Forward selection Fator Matriz de fatores Padrão de fatores Análise fatorial Experimento fatorial Falso positivo Distribuição F Método de Fellegi Distribuição fiducial Inferência fiducial Filtro Cadeia de Markov finita Correção por população finita Primeiro tempo de passagem Informação de Fisher Valor ajustado Follow-up Previsão Seleção forward 50 50 50 51 51 51 51 51 52 52 52 52 53 53 53 53 54 54 54

Fourier analysis Fourier series Frequency Frequency curve Frequency distribution Frequency function Frequency poligon Frequency surface Frequency table Frequency theory of probability Frequentist approach Frequentist theory

Análise de Fourier Série de Fourier Freqüência Curva de freqüência Distribuição de freqüência Função de freqüência Polígono de freqüência Superfície de freqüência Tabela de freqüência Teoria freqüentista de probabilidade Abordagem freqüentista Teoria freqüentista

54 54 54 55 55 55 55 56 56 56 56 56

G
Gabriel’s test Galton ogive Game theory Gamma distribution Gamma function Gamma random variable Gaussian distribution Gauss-Seidel method General factor Generalized additive model 59 Generalized inverse Generalized least squares estimator Generalized linear model Generalized maximum likelihood estimator Inversa generalizada Estimador de mínimos quadrados generalizados Modelo linear generalizado Estimador de máxima verossimilhança generalizada 61 60 60 60 Teste de Gabriel Ogiva de Galton Teoria dos jogos Distribuição gama Função gama Variável aleatória gama Distribuição gaussiana Método de Gauss e Seidel Fator geral Modelo aditivo generalizado 58 58 58 58 59 59 59 59 59

Generating function Geometric distribution Geometric mean Geometric random variable Gibbs sampler algorithm Gompertz curve Goodness of fit Graeco-Latin square Graphical estimator Graphical inspection Grid Group Group comparison Growth curve Grade Grupo

Função geradora Distribuição geométrica Média geométrica Variável aleatória geométrica Algoritmo do amostrador de Gibbs Curva de Gompertz Bondade de ajuste Quadrado Greco-Latino Estimador gráfico Inspeção gráfica 63 64 Comparação de grupos Curva de crescimento

61 61 62 62 62 62 62 63 63 63

64 64

H
Harmonic mean Hazard Hazard function Hierarchical linear models Hierarchical priors Histogram Homogeneity Homoscedasticity Hypergeometric distribution Risco Função de risco Modelos lineares hierárquicos Prioris hierárquicas Histograma Homogeneidade Homocedasticidade Distribuição hipergeométrica 68 Média harmônica 66 66 66 66 67 67 67 68

Hypergeometric random variable Hyperparameter Hypothesis testing Variável aleatória hipergeométrica Hiperparâmetro Teste de hipótese 68 69 69 I Identifiability Identity function Implementation Importance sampling Incomplete blocks Incomplete multiresponse design Independence Independence frequency Independent random variables Independent trials Independent variable Index number Indicator function Inefficient statistic Infinite population Input/output process Integer programming Integrated data Interaction Intercorrelation Interpolated value Interpolation Interquartile range Interval estimation Identificabilidade Função identidade Implementação Amostragem por importância Blocos incompletos Experimento de multi-resposta incompleto Independência Freqüência independente Variáveis aleatórias independentes Ensaios independentes Variável independente Número índice Função indicadora Estatística ineficiente População infinita Processo de entrada/saída Programação inteira Dados agregados Interação Intercorrelação Valor interpolado Interpolação Distância interquartílica Estimação por intervalos 71 71 71 71 72 72 72 73 73 73 74 74 74 74 75 75 75 75 75 76 76 76 76 77 .

Invariance Invariance method Inverse distribution Inverse function Inverse Gaussian distribution Irreducible Markov chain Isomorphism Invariância Método invariante Distribuição inversa Função inversa Distribuição gaussiana inversa Cadeia de Markov irredutível Isomorfismo 77 77 77 77 78 78 78 J Jackknife Jeffreys’ prior Jensen’s inequality Joint distribution Joint regression Joint sufficiency Jointly distributed random variables Jackknife Priori de Jeffreys Desigualdade de Jensen Distribuição conjunta Regressão conjunta Suficiência conjunta Variáveis aleatórias distribuídas conjuntamente 81 80 80 80 80 81 81 K Kendall’s tau (τ ) Kolmogorov axioms Kolmogorov-Smirnov test Kriging Kullback-Liebler information number Kurtosis Kronecker product of matrices Tau de Kendall (τ ) Axiomas de Kolmogorov Teste de Kolmogorov e Smirnov Krigagem Produto de Kronecker de matrizes Número de informação de Kullback e Liebler Kurtose 84 84 83 84 83 83 83 L .

Lag Lag correlation Lag covariance Lag regression Laplace approximation Laplace distribution Laplace transformation Latin square design Law of large numbers Law of small numbers Le and Zidek methodology Least squares estimators Least squares method Lehmann’s test Level map Level of significance Likelihood function Likelihood principle Likelihood ratio (LR) Likelihood ratio test Lindley’s paradox Linear estimator Linear growth model (LGM) Linear model Linear predictor Linear programming Link function Location model Location parameter Location-scale model Defasagem Correlação defasada Covariância defasada Regressão defasada Aproximação de Laplace Distribuição de Laplace Transformação de Laplace Experimento quadrado latino Lei dos grandes números Lei dos pequenos números Metodologia de Le e Zidek Estimadores de mínimos quadrados Método de mínimos quadrados Teste de Lehmann Mapa de níveis Nível de significância Função de verossimilhança Princípio de verossimilhança Razão de verossimilhança (RV) Teste da razão de verossimilhança Paradoxo de Lindley Estimador linear Modelo de crescimento linear (MCL) Modelo linear Preditor linear Programação linear Função de ligação Modelo de locação Parâmetro de local Modelo de locação-escala 86 86 86 86 86 86 87 87 87 87 88 88 88 88 88 89 89 89 89 90 90 90 91 91 91 91 91 91 92 92 .

Log link Logistic link Logistic regression Logit model Log-log transformation Log-normal distribution Log-normal random variable Longitudinal study Loss function Ligação logarítimica Ligação logística Regressão logística Modelo logito Transformação log-log Distribuição lognormal Variável aleatória lognormal Estudo longitudinal Função de perda 92 92 93 93 93 93 93 93 94 M Marginal density function Marginal distribution Marginal likelihood Marginal posterior distribution Marginal probability function Markov Chain Markov process Markov property Mass point at zero Matched samples Maximum likelihood estimator (MLE) Maximum likelihood method Mean Mean absolute deviation Mean of a random variable Mean squared error Measure of location Median Estimador de máxima verossimilhança Método de máxima verossimilhança Média Desvio absoluto médio Média de uma variável aleatória Erro quadrado médio Medida de locação Mediana 98 98 99 99 99 99 99 100 Função de densidade marginal Distribuição marginal Verossimilhança marginal Distribuição a posteriori marginal Função de probabilidade marginal Cadeia de Markov Processo de Markov Propriedade markoviana Ponto de massa em zero Amostras emparelhadas 96 96 96 96 97 97 97 97 98 98 .

Method of moments Metropolis-Hastings algorithm Mid-range Missing value Mixture of distributions Mode Model Model checking Model choice Model for binary response Model selection Moment Moment estimator Moment generating function Monotonic function Monte Carlo Markov Chain methodology Monte Carlo methods Most efficient estimator Most powerful test Moving average Método de momentos Algoritmo de Metrópolis e Hastings Semi amplitude Valor perdido Mistura de distribuições Moda Modelo Verificação do modelo Seleção de modelo Modelo para resposta binária Seleção de modelos Momento Estimador de momentos Função geradora de momentos Função monotônica Método de Monte Carlo em Cadeias de Markov (MCMC) Métodos de Monte Carlo Estimador mais eficiente Teste mais poderoso Média móvel 100 100 100 100 101 101 101 101 102 102 102 102 103 103 103 103 103 104 104 104 .

Multicollinearity Multinomial distribution Multinomial random variable Multiple decision methods Multiple decision problem Multiple Markov process Multiple regression Multiplicative effect Multivariate analysis Multivariate distribution Multivariate processes Multivariate regression model Mutually exclusive events Multicolinearidade Distribuição multinomial Variável aleatória multinomial Métodos de decisão múltipla Problema de decisão múltipla Processo markoviano múltiplo Regressão múltipla Efeito multiplicativo Análise multivariada Distribuição multivariada Processos multivariados Modelo de regressão multivariada Eventos mutuamente exclusivos 104 104 105 105 105 106 106 106 106 107 107 107 107 N Natural conjugate family of distributions Negative binomial distribution Negative definite matrix Negative moments Neighborhood system Neighboring criteria Neighboring effect Neighbors Nested hypothesis Newton-Raphson algorithm Neyman’s factorization criteria Neyman-Pearson lemma Neyman-Pearson theory Família conjugada de distribuições naturais Distribuição binomial negativa Matriz definida negativa Momentos negativos Sistema de vizinhança Critério de vizinhança Efeito de vizinhança Vizinhos Hipóteses encaixadas Algoritmo de Newton e Raphson Critério de fatorização de Neyman Lema de Neyman e Pearson Teoria de Neyma e Pearson 109 109 109 109 110 110 110 110 111 111 111 112 112 112 Negative binomial random variable Variável aleatória binomial negativa .

Noise Nominal scale Non-informative priors Nonrandom sample Nonsingular matrix Nonsingular distribution Normal aproximation to binomial Normal distribution Normal equations Normal random variable Normalizing transformation Nuisance parameters Null hypothesis Numerical integration methods Ruído Escala nominal Prioris não informativas Amostra determinística ou Amostra não aleatória Matriz não singular Distribuição não singular Aproximação normal para binomial Distribuição normal Equações normais Variável aleatória normal Transformação normalizadora Parâmetros de distúrbio Hipótese nula Métodos de integração numérica 112 113 113 113 114 114 114 114 115 115 115 115 116 116 O Observable variable Observational study Odds Odds ratio Ogive One-sided test Variável observável Estudo observacional Chances Razão de chances Ogiva Teste unilateral 118 118 118 118 118 118 .

Operating characteristic curve Operating characteristic function Optimum linear predictor Order of a Markov chain Order statistics Ordered series Ordinal scale Orthogonal matrix Outlier Over-dispersion Curva operativa-característica Função operativa-característica Preditor linear ótimo Ordem de uma cadeia de Markov Estatística de ordem Série ordenada Escala ordinal Matriz ortogonal 119 119 119 119 120 120 120 120 Valor discrepante Super dispersão 120 121 P Parameter Parameter estimation Pareto distribution Pascal random variable Pearson residual Percentile Pivotal statistic Point pattern Poisson distribution Poisson process Poisson random variable Polynomial regression Positive definite matrix Positive random variable Posterior distribution Power function Precision Precision matrix Parâmetro Estimação de parâmetro Distribuição de Pareto Variável aleatória Pascal Residual de Pearson Percentil Estatística pivotal Padrão pontual Distribuição de Poisson Processo de Poisson Variável aleatória de Poisson Regressão polinomial Matriz definida positiva Variável aleatória positiva Distribuição a posteriori Função poder Precisão Matriz de precisão 123 123 123 124 124 124 124 125 125 125 125 125 125 126 126 126 126 127 .

Prediction Prior distribution Prior information Prior mean Probability Probability axioms Probability density function Probability distribution Probit model Prospective study P-value P-valor Previsão Distribuição a priori Informação a priori Média a priori Probabilidade Axiomas de probabilidade Função de densidade de probabilidade Distribuição de probabilidade Modelo probito Estudo prospectivo 127 127 127 127 127 128 128 128 128 129 129 Q Quadratic form Quartile Quartil Fórmula quadrática 131 131 R Random effect Random sample Random selection Random variable Randomization Randomized blocks Range Rao-Blackwell theorem Regression analysis Efeito aleatório Amostra aleatória Seleção aleatória Variável aleatória Aleatorização Blocos aleatorizados Amplitude Teorema de Rao e Blackwell Análise de regressão 133 133 133 133 133 134 134 134 135 .

Regressor Reliability Replication Residual Retrospective study Risk Robustness Risco Regressor Confiabilidade Replicação Resíduo Estudo retrospectivo Robustez 135 135 135 135 136 136 136 S Sample Sample mean Sample median Sample range Sample space Sample standard deviation Sample variance Sampling distribution Sampling fraction Sampling with replacement Scale model Scale parameter Scatterplot Score function Seasonality Sensitivity Simple hypothesis Simulation methods Simulation model Singular matrix Skewness Smoothing Amostra Média amostral Mediana amostral Amplitude amostral Espaço amostral Desvio padrão amostral Variância amostral Distribuição amostral Fração de amostragem Amostragem com reposição Modelo de escala Parâmetro de escala Gráfico de dispersão Função escore Sazonalidade Sensibilidade Hipótese simples Métodos de simulação Modelo de simulação Matriz singular Simetria Alizamento 138 138 138 138 138 138 138 139 139 139 140 140 140 140 140 141 141 141 141 141 141 142 .

Snedecor F distribution Space-time atributes Space-time model Spatial dependence Spatial patterns Specificity Square root transformation Standard deviation Standard normal random variable Stationary process Statistic Statistical hypothesis Stepwise regression Student t distribution Sufficiency Sufficient statistic Symmetric matrix Distribuição F de Snedecor Características espaço-temporais Modelo espaço-temporal Dependência espacial Padrões espaciais Especificidade Transformação da raiz quadrada Desvio padrão Variável aleatória normal padronizada Processo estacionário Estatística Hipótese estatística Regressão stepwise Distribuição t de Student Suficiência Estatística suficiente Matriz simétrica 142 142 142 142 142 143 143 143 143 143 144 144 144 145 145 145 145 T Tchebychev’s inequality Teste statistic Time series Transition probability Type I error Type II error Desigualdade de Tchebychev Estatística de teste Série temporal Probabilidade de transição Erro tipo I Erro tipo II 147 147 147 147 148 148 U .

Unbiassed estimator Uniform distribution Uniform random variable Estimador não viciado Distribuição uniforme Variável aleatória uniforme 150 150 150 V Vague prior Variability Variable Variance Variance-covariance matrix Variogram Priori vaga Variabilidade Variável Variância Matriz de variância-covariância Variograma 152 152 152 152 153 153 W Weibull distribution Wilcoxon’s test Wishart distribution Distribuição de Weibull Teste de Wilcoxon Distribuição de Wishart 155 155 155 X Y Z .

SUMÁRIO PORTUGUÊS/INGLÊS A Abordagem bayesiana Abordagem clássica Bayesian approach Classical approach 23 13 .

Abordagem freqüentista Acuracia Aditividade Agregação AIC (Critério de Informação de Akaike) Ajuste de curva Aleatorização Algoritmo Algoritmo de back-fitting Algoritmo de Newton e Raphson Algoritmo EM Alizamento Amostra Amostra aleatória Amostra determinística Amostra não aleatória Amostragem com reposição Amostragem por importância Amostras emparelhadas Amplitude Amplitude amostral Frequentist approach Accuracy Additivity Aggregation AIC (Akaike Information Criteria) Curve fitting Randomization Algorithm Back-fitting algorithm Newton-Raphson algorithm EM algorithm Smoothing Sample Random sample Nonrandom sample Nonrandom sample Sampling with replacement Importance sampling Matched samples Range Sample range 56 3 3 3 4 30 133 4 11 100 111 62 42 142 138 133 113 113 139 71 98 134 138 Algoritmo de Metrópolis e Hastings Metropolis-Hastings algorithm Algoritmo do amostrador de Gibbs Gibbs sampler algorithm Análise de covariância Análise de Fourier Análise de regressão Análise de variância Análise discriminante Analysis of covariance Fourier analysis Regression analysis Analysis of variance Discriminatory analysis 4 54 135 5 36 .

Análise exploratória Análise fatorial Análise multivariada Aproximação de Laplace Aproximação normal para binomial Atributo Autocorrelação Auto-regressão Autovalor Axiomas de Kolmogorov Axiomas de probabilidade Exploratory analysis Factorial analysis Multivariate analysis Laplace approximation Normal approximation to binomial Attribute Autocorrelation Autoregression Eigenvalue Kolmogorov axioms Probability axioms 47 51 106 86 114 7 7 8 41 83 128 B BIC (Critério de Informação Bayesiana) BIC (Bayesian Information Criteria) Blocos aleatorizados Blocos incompletos Bondade de ajuste Randomized blocks Incomplete blocks Goodness of fit 15 134 72 62 C Cadeia de Markov Cadeia de Markov absorvente Cadeia de Markov finita Cadeia de Markov irredutível Cadeia ergódica CAR (condicional auto-regressivo) Característica Características espaço-temporais Censura Chances Markov Chain Absorving Markov chain Finite Markov chain Irreducible Markov chain Ergodic chain CAR (conditional autoregressive) Attribute Space-time atributes Censoring Odds 97 2 52 78 43 21 7 142 22 118 .

Ciclo Coeficiente de autocorrelação Coeficiente de correlação Coeficiente de confiança Coeficiente de variação Colinearidade Comparação de grupos Completitude da estatística Componente de variância Confiabilidade Controle Correção por continuidade Correção por população finita Correlação Correlação canônica Correlação defasada Covariância Covariância defasada Covariável Critério de fatorização de Neyman Critério de vizinhança Curva de crescimento Curva de freqüência Curva de Gompertz Curva operativa-característica Cycle Autocorrelation coefficient Correlation coefficient Confidence coefficient Coefficient of variation Collinearity Group comparison Completeness of statistic Component of variance Reliability Control Continuity correction Finite population correction Correlation Canonical correlation Lag correlation Covariance Lag covariance Covariate Neyman’s factorization criteria Neighboring criteria Growth curve Frequency curve Gompertz curve Operating characteristic curve 31 7 28 26 23 24 64 24 24 135 28 27 53 28 20 86 28 86 29 112 110 64 55 62 119 D Dados agregados Dados binários Dados censurados Decil Integrated data Binary data Censored data Decile 75 16 21 33 .

Decomposição Decomposição de Choleski Defasagem Densidade de valor extremo Dependência espacial Desigualdade de Bonferroni Desigualdade de Chebychev Desigualdade de Cramer e Rao Desigualdade de Jensen Desigualdade de Tchebychev Desvio absoluto Desvio absoluto médio Desvio padrão Desvio padrão amostral Diagrama de caixa Dicotomia Dispersão Distância interquartílica Distribuição a posteriori Distribuição a posteriori marginal Distribuição a priori Distribuição amostral Distribuição assintótica Distribuição Beta Distribuição beta-binomial Distribuição bimodal Distribuição binomial Distribuição binomial negativa Distribuição bivariada Distribuição Chi-quadrada Decomposition Choleski decomposition Lag Extreme value density Spatial dependence Bonferroni inequality Chebychev inequality Cramer-Rao inequality Jensen’s inequality Tchebychev’s inequality Absolute Deviation Mean absolute deviation Standard deviation Sample standard deviation Boxplot Dichotomy Dispersion Interquartile range Posterior distribution Marginal posterior distribution Prior distribution Sampling distribution Asymptotic distribution Beta distribution Beta-binomial distribution Bimodal distribution Binomial distribution Negative binomial distribution Bivariate distribution Chi-square distribution 34 23 86 48 142 17 22 29 80 147 2 99 143 138 18 36 37 76 126 96 127 139 6 15 15 16 16 109 17 23 .

Distribuição conjunta Distribuição de Bernoulli Distribuição de Cauchy Distribuição de correlação constante Distribuição de Dirichlet Distribuição de Erlang Distribuição de freqüência Distribuição de Laplace Distribuição de Pareto Distribuição de Poisson Distribuição de probabilidade Distribuição de Weibull Distribuição de Wishart Distribuição exponencial Distribuição exponencial dupla Distribuição F Distribuição F de Snedecor Distribuição fiducial Distribuição gama Distribuição gaussiana Distribuição gaussiana inversa Distribuição geométrica Distribuição hipergeométrica Distribuição inversa Distribuição lognormal Distribuição marginal Distribuição multinomial Distribuição multivariada Distribuição não singular Distribuição normal Joint distribution Bernoulli distribution Cauchy distribution Equally correlated distribution Dirichlet distribution Erlangian distribution Frequency distribution Laplace distribution Pareto distribution Poisson distribution Probability distribution Weibull distribution Wishart distribution Exponential distribution Double exponential distribution F-distribution Snedecor F distribution Fiducial distribution Gamma distribution Gaussian distribution Inverse Gaussian distribution Geometric distribution Hypergeometric distribution Inverse distribution Log-normal distribution Marginal distribution Multinomial distribution Multivariate distribution Non singular distribution Normal distribution 80 14 21 43 36 44 55 86 123 125 128 155 155 47 38 51 142 52 58 59 78 61 68 77 93 96 104 107 114 114 .

Distribuição t de Student Distribuição uniforme Student t distribution Uniform distribution 145 150 26 Distribuições a posteriori condicionais Conditional posterior distributions E Efeito aleatório Efeito de vizinhança Efeito multiplicativo Eficiência Eliminação backward Eliminação de parâmetros Ensaios independentes Equações normais Equilíbrio Ergodicidade Erro Erro Absoluto Erro quadrado médio Erro tipo I Erro tipo II Escala nominal Escala ordinal Espaço amostral Espaço de decisão Especificidade Estado absorvente Estatística Estatística ancilar Estatística de Durbin e Watson Estatística de ordem Random effect Neighboring effect Multiplicative effect Efficiency Backward elimination Elimination of parameters Independent trials Normal equations Equilibrium Ergodicity Error Absolute error Mean square error Type I error Type II error Nominal scale Ordinal scale Sample space Decision space Specificity Absorving state Statistic Ancillary statistic Durbin-Watson statistic Order statistics 133 110 106 41 11 42 73 115 43 44 44 2 99 148 148 113 120 138 34 143 2 144 5 39 120 .

Estatística de teste Estatística descritiva Estatística ineficiente Estatística pivotal Estatística suficiente Estimação Estimação de Bayes Estimação de parâmetro Estimação por intervalos Estimador Estimador consistente Estimador de Bayes empírico Test statistic Descriptive statistics Inefficient statistic Pivotal statistic Sufficient statistic Estimation Bayes’ estimation Parameter estimation Interval estimation Estimator Consistent estimator Empirical Bayes estimator 147 35 74 124 145 45 12 123 77 45 27 42 98 61 60 103 41 63 90 104 150 88 44 23 30 21 47 93 Estimador de máxima verossimilhança Maximum likelihood estimator (MLE) Estimador de máxima verossimilhança Generalized maximum likelihood generalizada Estimador de mínimos quadrados generalizados Estimador de momentos Estimador eficiente Estimador gráfico Estimador linear Estimador mais eficiente Estimador não viciado Estimadores de mínimos quadrados Estimativa Estudo cohorte Estudo cross-sectional Estudo de caso-controle Estudo experimental Estudo longitudinal Moment estimator Efficient estimator Graphical estimator Linear estimator Most efficient estimator Unbiassed estimator Least squares estimators Estimate Cohort study Cross-sectional study Case-control study Experimental study Longitudinal study estimator Generalized least squares estimator .

Estudo observacional Estudo prospectivo Estudo retrospectivo Evento Eventos mutuamente exclusivos Experimento de Bernoulli Experimento de multi-resposta incompleto Experimento fatorial Experimento quadrado latino Extrapolação Observational study Prospective study Retrospective study Event Mutually exclusive events Bernoulli trial Incomplete multiresponse design Factorial design Latin square design Extrapolation 118 129 136 45 107 14 72 51 87 48 F Falso positivo Família conjugada de distribuições Família conjugada de distribuições naturais Família exponencial Famílias completas de distribuição Fator Fator auto-regressivo Fator de Bayes Fator geral Filtro Follow-up Fórmula quadrática Fração de amostragem Freqüência Freqüência independente Função de autocorrelação Exponential family Complete families of distributions Factor Autoregressive factor Bayes factor General factor Filter Follow-up Quadratic form Sampling fraction Frequency Independence frequency Autocorrelation function False positive Conjugate family of distributions Natural conjugate family of distributions 109 47 24 50 08 12 59 52 54 131 139 54 73 8 51 27 .

Função de autocovariância Função de covariância Função de decisão Função de densidade Função de densidade condicional Função de densidade marginal Função de deviance Função de discrepância Função de distribuição Função de distribuição empírica Função de freqüência Função de ligação Função de perda Função de probabilidade marginal Função de risco Função de valor absoluto Função de verossimilhança Função escore Função gama Função geradora Função geradora de momentos Função identidade Função indicadora Função inversa Função monotônica Função operativa-característica Função poder Autocovariance function Covariance function Decision function Density function Conditional density function Marginal density function Deviance function Discrepancy function Distribution function Empirical distribution function Frequency function Link function Loss function Marginal probability function Hazard function Absolute value function Likelihood function Score function Gamma function Generating function Moment generating function Identity function Indicator function Inverse function Monotonic function Operating characteristic function Power function 8 29 33 35 25 128 96 36 36 37 43 55 91 94 97 66 2 89 140 59 61 103 71 74 77 103 119 126 Função de densidade de probabilidade Probability density function .

G Grade Gráfico de dispersão Grau de liberdade Grupo Grid Scatterplot Degree of freedom Group 63 140 34 64 H Hiperparâmetro Hipótese alternativa Hipótese composta Hipótese estatística Hipótese nula Hipótese simples Hipóteses encaixadas Histograma Homocedasticidade Homogeneidade Hyperparameter Alternative hypotheses Composite hypothesis Statistical hypothesis Null hypothesis Simple hypothesis Nested hypothesis Histogram Homoscedasticity Homogeneity 69 4 25 144 116 141 111 67 68 67 I Identificabilidade Implementação Independência Independência condicional Inferência bayesiana Inferência fiducial Informação a priori Informação de Fisher Inspeção gráfica Interação Indentifiability Implementation Independence Conditional independence Bayesian inference Fiducial inference Prior information Fisher information Graphical inspection Interaction 71 71 72 25 13 52 127 53 63 75 .

Intercorrelação Interpolação Intervalo de confiança Intervalo de confiança assintótico Invariância Inversa generalizada Isomorfismo Intercorrelation Interpolation Confidence interval Asymptotic confidence interval Invariance Generalized inverse Isomorphism 76 76 26 6 77 60 78 J Jackknife Jackknife 80 K Krigagem Kurtose Kriging Kurtosis 83 84 L Lei dos grandes números Lei dos pequenos números Lema de Neyman e Pearson Ligação canônica Ligação logarítmica Ligação logística Log-log complementar Law of large numbers Law of small numbers Neyman-Pearson lemma Canonical link Log link Logistic link Complementary log-log 87 87 112 20 92 92 24 M Mapa de níveis Matriz de fatores Matriz de precisão Matriz de variância-covariância Level map Factor matrix Precision matrix Variance-covariance matrix 88 50 127 153 .

Matriz definida negativa Matriz definida positiva Matriz não singular Matriz ortogonal Matriz simétrica Matriz singular Média Média a priori Média amostral Média de uma variável aleatória Média geométrica Média harmônica Média móvel Mediana Mediana amostral Medida de locação Melhor estimador Método de bootstrap Método de Fellegi Método de Gauss e Seidel Método de máxima verossimilhança Método de mínimos quadrados Método de momentos Método de Monte Carlo em Cadeias de Markov (MCMC) Método estatístico exato Método invariante Método livre de distribuição Metodologia de Le e Zidek Métodos de decisão múltipla Negative definite matrix Positive definite matrix Non singular matrix Orthogonal matrix Symmetric matrix Singular matrix Mean Prior mean Sample mean Mean of a random variable Geometric mean Harmonic mean Moving average Median Sample median Measure of location Best estimator Boostrap method Fellegi’s method Gauss-Seidel method Maximum likelihood method Least squares method Method of moments Monte Carlo Markov Chain (MCMC) 109 125 114 120 145 141 99 127 138 99 62 66 104 100 138 99 14 18 51 59 98 88 100 103 Exact statistical method Invariance method Distribution free method Le and Zidek methodology Multiple decision methods 46 77 37 88 105 .

Métodos de integração numérica Métodos de Monte Carlo Métodos de simulação Mistura de distribuições Moda Modelo Modelo aditivo Modelo aditivo generalizado Modelo auto-regressivo Modelo bilinear Modelo de Arrhenius Modelo de Box e Jenkins Modelo de escala Modelo de locação Modelo de locação-escala Modelo de regressão multivariada Modelo de simulação Modelo dinâmico Modelo espaço-temporal Modelo linear Modelo linear generalizado Modelo logito Modelo para resposta binária Modelo probito Modelos lineares hierárquicos Momento Momentos negativos Multicolinearidade Numerical integration methods Monte Carlo methods Simulation methods Mixture of distributions Mode Model Additive model Generalized additive model Autogressive model Bilinear model Arrhenius model Box and Jenkins model Scale model Location model Location-scale model Multivariate regression model Simulation model Dynamic model Space-time model Linear model Generalized linear model Logit model Model for binary response Probit model Hierarchical linear models Moment Negative moments Multicollinearity 116 103 141 101 101 101 3 59 9 15 5 18 91 140 91 92 107 141 39 142 91 60 93 102 128 66 102 110 104 Modelo de crescimento linear (MCL) Linear growth model (LGM) .

N Natureza seqüencial do teorema de Bayes Nível de significância Normalidade assintótica Número de informação de Kullback e Liebler Número índice Index number 74 Level of significance Asymptotic Normality Kullback-Liebler information number 89 6 84 Bayes sequential nature 12 O Ogiva Ogiva de Galton Ordem de uma cadeia de Markov Ogive Galton ogive Order of a Markov chain 118 58 119 P Padrão de fatores Padrão pontual Padrões espaciais Paradoxo de Lindley Parâmetro Parâmetro de escala Parâmetro de local Parâmetros de distúrbio Percentil Permutabilidade Polígono de freqüência Ponto de corte Ponto de massa em zero População infinita Factor pattern Point pattern Spatial patterns Lindley’s paradox Parameter Scale parameter Location parameter Nuisance parameters Percentile Exchangeability Frequency poligon Cut-off Mass point at zero Infinite population 50 125 142 90 123 140 92 115 124 46 55 31 98 75 .

Precisão Preditor linear Preditor linear ótimo Previsão Previsão Primeiro tempo de passagem Princípio de verossimilhança Priori de Jeffreys Priori vaga Prioris hierárquicas Prioris não informativas Probabilidade Probabilidade condicional Probabilidade de transição Problema de decisão múltipla Procedimento de Bayes empírico Processo de entrada/saída Processo de Markov Processo de movimento browniano Processo de Poisson Processo de vida e morte Processo determinístico Processo estacionário Processo evolucionário Processo markoviano múltiplo Processos multivariados Produto de Kronecker de matrizes Programação inteira Programação linear Promédio Precision Linear predictor Optimum linear predictor Forecasting Prediction First passage time Likelihood principle Jeffreys’ prior Vague prior Hierarchical priors Non-informative priors Probability Conditional probability Transition probability Multiple decision problem Empirical Bayes procedure Input/output process Markov process Brownian motion process Poisson process Birth and death process Deterministic process Stationary process Evolutionary process Multiple Markov process Multivariate processes Kronecker product of matrices Interger programming Linear programming Average 126 91 119 54 127 53 89 80 152 67 113 127 26 147 105 42 75 97 18 125 17 35 143 46 106 107 84 75 91 9 .

Propriedade markoviana P-valor Markov property P-value 97 129 Q Quadrado Greco-Latino Quartil Quase certo Graeco-Latin square Quartile Almost certain 63 131 4 R Raiz característica Razão de chances Razão de verossimilhança (RV) Região crítica Região de aceitação Regra de decisão Regressão binária bivariada Regressão conjunta Regressão curvilínea Regressão defasada Regressão logística Regressão múltipla Regressão polinomial Regressão stepwise Regressor Replicação Residual de Pearson Resíduo Risco Risco Characteristic root Odds ratio Likelihood ratio (LR) Critical region Acceptance region Decision rule Bivariate binary regression Joint regression Curvilinear regression Lag regression Logistic regression Multiple regression Polynomial regression Stepwise regression Regressor Replication Pearson residual Residual Hazard Risk 22 118 89 29 3 33 17 81 30 86 93 106 125 144 135 135 124 135 66 136 .

Risco de Bayes Robustez Ruído Bayes risk Robustness Noise 12 136 112 S Sazonalidade Seleção aleatória Seleção de modelo Seleção de modelos Seleção forward Semi amplitude Sensibilidade Série temporal Série de Fourier Série ordenada Simetria Sistema de vizinhança Solução de Bayes Suavização exponencial Suficiência Suficiência conjunta Super dispersão Superfície de freqüência Seasonality Random selection Model choice Model selection Forward selection Mid-range Sensitivity Time series Fourier series Ordered series Skewness Neighborhood system Bayes Solution Exponential smoothing Sufficiency Joint sufficiency Over-dispersion Frequency surface 140 133 102 102 54 100 141 147 54 120 141 110 12 48 145 81 121 56 T Tabela de freqüência Tau de Kendall (τ ) Tendência curvilínea Teorema de Bayes Teorema de Blackwell Frequency table Kendall’s tau (τ ) Curvilinear trend Bayes theorem Blackwell’s theorem 56 83 30 13 17 .

Teorema do limite central Teorema de Rao e Blackwell Teorema de representação de De Finetti Teoria assintótica Teoria de decisão de bayesiana Teoria de decisão Teoria de Neyman e Pearson Teoria dos jogos Teoria frenqüentista Teoria freqüentista de probabilidade Teste acelerado Teste da razão de verossimilhança Teste de Bartlett Teste de Behrens e Fisher Teste de Gabriel Teste de hipótese Teste de Kolmogorov e Smirnov Teste de Lehmann Teste de Wilcoxon Teste mais poderoso Teste unilateral Testes assintóticos Testes assintóticos de hipótese Transformação da raiz quadrada Transformação de Laplace Transformação normalizadora Transformação log-log Central limit theorem Rao-Blackwell theorem De Finetti’s representation theorem Asymptotic theory Bayes decison theory Decision theory Neyman-Pearson theory Game theory Frequentist theory Frequency theory of probability Accelerated testing Likelihood ratio test Bartlett’s test Behrens-Fisher test Gabriel’s test Hypothesis testing Kolmogorov-Smirnov test Lehmann’s test Wilcoxon’s test Most powerful test One-sided test Asymptotic tests Asymptotic tests of hypothesis Square root transformation Laplace transformation Normalizing transformation Log-log transformation 22 134 33 7 11 34 112 58 56 56 2 90 11 13 58 69 83 88 155 104 118 7 7 143 87 115 93 .

U Unidade elementar Elementary unit 41 V Valor ajustado Valor discrepante Valor esperado Valor interpolado Valor perdido Valores extremos Variabilidade Variância Variância amostral Variáveis aleatórias distribuídas conjuntamente Variáveis aleatórias independentes Variável Variável aleatória Variável aleatória Bernoulli Variável aleatória binomial negativa Variável aleatória binomial Variável aleatória contínua Variável aleatória de Poisson Variável aleatória exponencial Variável aleatória gama Variável aleatória geométrica Variável aleatória hipergeométrica Variável aleatória lognormal Variável aleatória multinomial Independent random variables Variable Random variable Bernoulli random variable Negative binomial random variable Binomial random variable Continuous random variable Poisson random variable Exponential random variable Gamma random variable Geometric random variable Hypergeometric random variable Log-normal random variable Multinomial random variable 73 152 133 14 109 16 27 125 48 59 62 68 93 105 Fitted value Outlier Expected value Interpolated value Missing value Extreme values Variability Variance Sample variance Jointly distributed random variables 53 120 46 76 100 48 152 152 138 81 .

Variável aleatória normal padronizada Standard normal random variable Variável aleatória normal Variável aleatória Pascal Variável aleatória positiva Variável aleátoria uniforme Variável dependente Variável dummy Variável independente Variável latente Variável observável Variograma Verificação do modelo Verossimilhança condicional Verossimilhança marginal Vício Vizinhos Normal random variable Pascal random variable Positive random variable Uniform random variable Dependent variable Dummy variable Independent variable Dummy variable Observable variable Variogram Model checking Conditional likelihood Marginal likelihood Bias Neighbors 143 115 124 126 150 35 38 74 38 118 153 101 25 96 15 111 W X Y Z .

A .

ACCELERATED TESTING TESTE ACELERADO Freqüentemente. deve acontecer em um período de tempo muito menor que o ciclo de vida normal do indivíduo estudado. ABSORVING MARKOV CHAIN CADEIA DE MARKOV ABSORVENTE Uma classe importante de cadeias de Markov não ergódicas. sem levar em conta o sinal. ABSOLUTE VALUE FUNCTION FUNÇÃO DE VALOR ABSOLUTO Função matemática cujo resultado é o próprio valor sem levar em consideração o signo. aquela cadeia que possui um estado absorvente. que representa uma amostra.ABSOLUTE DEVIATION DESVIO ABSOLUTO A diferença de um valor com relação a uma constante. o processo de experimentação. ou manufatura. uma vez atingido. não pode ser deixado. ABSORVING STATE ESTADO ABSORVENTE Estado de um processo estocástico que. Este tipo de testes é praticado em estudos de . ABSOLUTE ERROR ERRO ABSOLUTO O erro absoluto de uma observação x é o desvio absoluto de x do seu valor “real”.

acuracia denota a proximidade dos cálculos ou estimações com seus valores reais. AGGREGATION AGREGAÇÃO Palavra usada para denotar a mistura de dados originais em agregados. ACCURACY ACURACIA No sentido estatístico geral. usualmente com o propósito de expressálos de forma resumida.confiabilidade sobrevivência. ADDITIVITY ADITIVIDADE Propriedade usada em estatística pela qual soma. ADDITIVE MODEL MODELO ADITIVO Modelo em a que os fatores que influenciam variável dependente possuem um efeito aditivo. ou são considerados através da . diversos fatores podem ser somados. se um ponto amostral cair dentro dela. a região do espaço amostral de forma que. a hipótese testada é aceita. ACCEPTANCE REGION e de análise de REGIÃO DE ACEITAÇÃO Na teoria de teste de hipóteses.

uma palavra equivalente à “fórmula”. . ALMOST CERTAIN QUASE CERTO Uma probabilidade dependente de um parâmetro n.AIC (AKAIKE INFORMATION CRITERIA) AIC (CRITÉRIO DE INFORMAÇÃO DE AKAIKE) Critério para seleção de modelos baseado na utilização da razão de verossimilhança penalizada pelos graus de liberdade. significa uma seqüência de passos necessários para atingir um objetivo. Recentemente. qualquer hipótese alternativa admissível para aquela que está sendo testada. ALGORITHM ALGORITMO Algum tempo atrás. O evento ao que se relaciona esta probabilidade é chamado de “quase certo” no limite. ALTERNATIVE HYPOTHESES HIPÓTESE ALTERNATIVA No teste de hipóteses. ANALYSIS OF COVARIANCE ANÁLISE DE COVARIÂNCIA É uma extensão da análise de variância para levar em conta o caso em que membros de uma classe compartilham valores de mais de uma variável. tenderá a 1 (um) quando n tender a infinito.

Fisher. Se não há Estimadores Suficientes a perda de alguma informação será inevitável. ou difusão de materiais . queda de rendimento de lubrificantes.ANALYSIS OF VARIANCE ANÁLISE DE VARIÂNCIA Levando-se em conta a teoria de testes de significância multivariados. A. Tais funções são chamadas estatísticas ancilares. mas essa perda pode ser reduzida considerando-se funções adicionais das variáveis que podem ser combinadas com o estimador de máxima verossimilhança. ARRHENIUS MODEL MODELO DE ARRHENIUS Em uma ampla variedade de reações químicas onde existe por exemplo. a função de verossimilhança contém todas as informações dadas pela amostra sobre os parâmetros desconhecidos da população que se possa querer estimar. é algumas vezes conhecido como análise de variância multivariada. corroção de metais. ANCILLARY STATISTIC ESTATÍSTICA ANCILAR De acordo com a teoria de inferência associada com o nome de R. A variação total de um conjunto de dados pode ser separada em componentes associados a fontes de variação usadas como critério de classificação das observações.

a distribuição tende para a forma Normal. quando o parâmetro tende ao limite. o comportamento da taxa em que acontecem estes eventos segue a equação seguinte: taxa do processo=Aexp{-Q/TR}.semicondutores. ASYMPTOTIC DISTRIBUTION DISTRIBUIÇÃO ASSINTÓTICA A forma limite de uma distribuição de freqüência ou probabilidade dependente de um parâmetro. ASYMPTOTIC TESTS TESTES ASSINTÓTICOS . Q é a energia de reação. R é a constante de gases. ASYMPTOTIC NORMALITY NORMALIDADE ASSINTÓTICA Uma distribuição dependente de um parâmetro n. onde A é uma constante. é definida como assintoticamente normal se. quando n tende ao infinito. geralmente um tamanho de amostra. ASYMPTOTIC CONFIDENCE INTERVAL INTERVALO DE CONFIANÇA ASSINTÓTICO Intervalo de confiança construído a partir de um resultado assintótico. então. e T é a temperatura absoluta. geralmente infinito. tal como tamanho de amostra ou tempo.

AUTOCORRELATION AUTOCORRELAÇÃO A correlação interna entre membros de uma série de observações ordenadas no tempo ou espaço. o coeficiente de autocorrelação de ordem k é definido como ρ k=ρ -k=E[xt-m] [xt+k-m]. ATTRIBUTE CARACTERÍSTICA. onde o valor esperado é Portanto. ATRIBUTO Uma característica qualitativa de um indivíduo. ASYMPTOTIC TESTS OF HYPOTHESIS TESTES ASSINTÓTICOS DE HIPÓTESE Testes de hipótese baseados em resultados assintóticos.Testes que utilizam estatísticas obtidas de distribuições limite. para seres humanos. geralmente empregado em distinção a uma variável ou característica quantitativa. o sexo é um atributo e a idade . AUTOCORRELATION COEFFICIENT COEFICIENTE DE AUTOCORRELAÇÃO Se xt é um processo estocástico estacionário de média m e variância σ 2. ASYMPTOTIC THEORY TEORIA ASSINTÓTICA Teoria baseada em distribuições limite. é uma variável.

xt) . AUTOCORRELATION FUNCTION FUNÇÃO DE AUTOCORRELAÇÃO A função de autocorrelação de um processo estocástico estacionário é a autocovariância dividida pela variância. AUTOCOVARIANCE FUNCTION FUNÇÃO DE AUTOCOVARIÂNCIA Para qualquer processo estocástico estacionário a função γ (k)=C(xt+k. AUTOREGRESSIVE MODEL MODELO AUTO-REGRESSIVO que imediatamente a .calculado para a distribuição conjunta de xt e xt+k. onde C representa a covariância dos termos entre parêntese é conhecida como função de autocovariância.. AUTOREGRESSION AUTO-REGRESSÃO A geração de uma série de observações pela qual o valor de cada uma é parcialmente dependente nos valores daquelas precederam. AUTOREGRESSIVE FACTOR FATOR AUTO-REGRESSIVO Um dos fatores considerados dentro de um modelo autoregressivo e que estão associados a uma das variáveis defasadas no tempo.

Geralmente.Um modelo econométrico que utiliza a própria variável de interesse defasada no tempo para explicar os valores atuais. porém enganoso. neste sentido. . Em um sentido mais limitado. um promédio mistura todos os valores do conjunto de dados. um “promédio” tem o sentido de representar ou resumir as características importantes de um conjunto de valores e. o termo inclui à mediana e também à moda. AVERAGE PROMÉDIO Conceito familiar.

B BACK-FITTING ALGORITHM ALGORITMO DE BACK-FITTING Algoritmo de ajuste de modelo usado quando existem várias covariáveis. começando pelo modelo completo e eliminando covariáveis até conseguir o .

uma a uma. F.S. Utilizado para ajustar um modelo linear generalizado. as menos significativas. BACKWARD ELIMINATION ELIMINAÇÃO BACKWARD Método de seleção de variáveis numa regressão linear que consiste em ajustar o modelo com todas as covariáveis e eliminar. autor do primeiro artigo de uma forma quantitativa de inferência indutiva.R.S. filho primogênito de Ann Bayes e Joshua Bayes.. em 17 de abril de 1761.R. BARTLETT’S TEST TESTE DE BARTLETT Teste aproximado da homogeneidade do conjunto de variâncias de um número de amostras independentes Normais. Falecido em Tumbridge Wells. BAYES DECISION THEORY TEORIA DE DECISÃO DE BAYESIANA Teoria de decisão baseada no teorema do reverendo Thomas Bayes. BAYES FACTOR FATOR DE BAYES . F.melhor ajuste. Nascido em 1702. BAYES’ ESTIMATION ESTIMAÇÃO DE BAYES A estimação de parâmetros da população pelo uso de métodos Bayesianos.

BAYES RISK RISCO DE BAYES O valor minimizado do risco esperado em uma Solução de Bayes. .A razão das chances duas dos dados que considerando-se hipóteses competem entre si. BAYES THEOREM TEOREMA DE BAYES Para uma quantidade de interesse θ associada a uma população representada por uma variável X que tem densidade dada por P(X|θ ). O resultado final será o mesmo que o obtido com todos os dados de uma única vez. BAYES SOLUTION SOLUÇÃO DE BAYES Na terminologia das funções de decisão estatísticas. BAYES SEQUENTIAL NATURE NATUREZA SEQÜENCIAL DO TEOREMA BAYES O teorema de Bayes pode ser aplicado de forma seqüencial conforme a informação coletada dos dados. a solução de Bayes é a função de decisão que minimiza o risco médio relativo a alguma distribuição de probabilidade. o teorema de Bayes estabelece que P(θ |X)=P(X| θ )P(θ )/P(X).

BAYESIAN INFERENCE INFERÊNCIA BAYESIANA Uma forma de inferência que trata parâmetros como variáveis aleatórias que possuem distribuições a priori. BERNOULLI DISTRIBUTION DISTRIBUIÇÃO DE BERNOULLI Caso especial da distribuição binomial na qual é realizado um único experimento de Bernoulli.BAYESIAN APPROACH ABORDAGEM BAYESIANA Uma das duas abordagens utilizadas em estatística. refletindo o estado acumulado de conhecimento. baseadas no teorema de Bayes como forma de atualizar a informação existente sobre alguma quantidade de interesse. das distribuições dos BEHRENS-FISHER TEST TESTE DE BEHRENS E FISHER Teste de significância sobre a diferença de médias de amostras aleatórias de duas distribuições Normais com variâncias diferentes. BERNOULLI RANDOM VARIABLE VARIÁVEL ALEATÓRIA BENOULLI . Através do teorema de Bayes são feitas atualizações parâmetros.

Se existe um critério que diferencia um estimador de outro como o melhor. BEST ESTIMATOR MELHOR ESTIMADOR A estimação de parâmetros de uma população questão de a partir se A a da o informação “melhor” depende que um de proveniente de uma amostra levanta a existe dos estimador. BERNOULLI TRIAL EXPERIMENTO DE BERNOULLI Qualquer experimento que apresente unicamente dois resultados exclusivos entre si. e se existe esse estimador. classificam resposta “bondade” principalmente critérios estimador. então ele é chamado de melhor estimador.β ).Variável aleatória com distribuição de Bernoulli. BETA-BINOMIAL DISTRIBUTION DISTRIBUIÇÃO BETA-BINOMIAL . α . α -1 (x-1) β -1 /B(α . BETA DISTRIBUTION DISTRIBUIÇÃO BETA O termo Distribuição Beta é geralmente aplicado quando uma variável aleatória tem densidade f(x)=x 0≤ x≤ 1.β >0.

1. BILINEAR MODEL MODELO BILINEAR Se um modelo linear com duas covariáveis pode ser arrumado na forma (β 0+β 2x2)+(β 1+β 12 2 penalizada x )x1.β )]. este modelo é conhecido por modelo bilinear.Quando uma variável aleatória X tem função de massa de probabilidade dada por f(x)=n!B(α +x.. para x=0. . BIAS VÍCIO Para um estimador t do parâmetro θ .n. diz-se que X tem distribuição beta-binomial. o vício é definido como a diferença entre o valor esperado de t e o próprio parâmetro θ . BIMODAL DISTRIBUTION DISTRIBUIÇÃO BIMODAL Distribuição de freqüências que possui duas modas.. ele mostra uma relação linear em x1 para a qual tanto intercepto como coeficiente angular são funções lineares de x2. n≥ 1... BIC (BAYESIAN INFORMATION CRITERIA) BIC (CRITÉRIO DE INFORMAÇÃO BAYESIANA) Critério para seleção de modelos pelo baseado na utilização da razão de verossimilhanças tamanho da amostra.β +n-x)/[x!(n-x)! B(α .

. Esta última expressão fornece as probabilidades para r=0. e é conhecida como distribuição binomial. . BIRTH AND DEATH PROCESS PROCESSO DE VIDA E MORTE Processo estocástico que tenta descrever o crescimento e a queda de uma população de membros que podem morrer ou criar novos indivíduos. BIVARIATE BINARY REGRESSION REGRESSÃO BINÁRIA . BINOMIAL DISTRIBUTION DISTRIBUIÇÃO BINOMIAL Se um evento tem probabilidade p de acontecer em qualquer tentativa. a probabilidade de r ocorrências em n tentativas independentes é n!pxqn-x/[x!(nx)!]. 1. onde q=1-p. n. BINOMIAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA BINOMIAL Variável aleatória discreta que tem distribuição binomial...BINARY DATA DADOS BINÁRIOS Dados que apresentam dois possíveis valores. muitas vezes relacionados com variáveis qualitativas de duas categorias e que podem ser representados pelos números 0 e 1.

será sempre uma função de uma estatística suficiente. Se um estimador de variância mínima existe.. Este modelo depende de . escrita para o caso contínuo como dF=f(x1.... BOOTSTRAP METHOD MÉTODO DE BOOTSTRAP Método de reamostragem que utiliza a função de distribuição empírica..BIVARIADA Regressão em que duas variáveis binárias existem como variáveis dependentes.. BLACKWELL’S THEOREM TEOREMA DE BLACKWELL Teorema referente a estimadores de variância mínima estabelecido por Blackwell (1947) e também por Rao (1949). BOX AND JENKINS MODEL MODELO DE BOX E JENKINS Modelo de previsão de séries temporais não estacionárias. com os θ i´s não independentes e seja C=C1× .θ k). com ou sem efeito sazonal. BONFERRONI INEQUALITY DESIGUALDADE DE BONFERRONI Seja θ =(θ 1. então: Pr(θ ∈C)≥ 1-Σ iPr(θ i∉Ci).× Ck. BIVARIATE DISTRIBUTION DISTRIBUIÇÃO BIVARIADA A distribuição de um par de variáveis x1 e x2.x2)dx1dx2.

BROWNIAN MOTION PROCESS PROCESSO DE MOVIMENTO BROWNIANO Processo estocástico aditivo de uma variável real xt definida no tempo t para a qual xt-xs tem distribuição Normal com média zero e variância σ 2|t-s|.autoregressões de m-éssima ordem da série. com resíduos de média móvel. BOXPLOT DIAGRAMA DE CAIXA Representação gráfica da distribuição de um conjunto de dados. onde σ é uma constante. 2 C .

.xp e xp+1...CANONICAL CORRELATION CORRELAÇÃO CANÔNICA Em análise multivariada ser pode ser provado que as variáveis x1....... (b) cada membro de um grupo é independente de todos exceto um membro do outro grupo e (c) as correlações diferentes de zero entre membros de grupos diferentes são maximizadas. Estas quantidades são ..λ e λ p+1 ......λ p+q de forma que (a) os cada grupo não são membros de correlacionados entre eles.xp+q podem transformadas p linearmente em variáveis λ 1.

Estas funções de ligação são chamadas de ligações canônicas... CAR (CONDITIONAL AUTOREGRESSIVE) CAR (CONDICIONAL AUTO-REGRESSIVO) Efeitos aleatórios estruturados. Besag em 1974.. CASE-CONTROL STUDY ESTUDO DE CASO-CONTROLE . uma média igual à média dos vizinhos e uma variância inversamente proporcional ao número de vizinhos. Inicialmente utilizados na restauração eletrônica de imagens e utilizados em estatística por W. utilizados em modelos para dados espaciais. Assumem.chamadas correlações canônicas e os dois conjuntos de variáveis λ 1. CANONICAL LINK LIGAÇÃO CANÔNICA Cada distribuição da família exponencial considerada em modelos lineares generalizados tem uma função de ligação especial para a qual existe uma estatística suficiente igual em dimensão a β do preditor linear η =Σ xjβ j..λ p+q são chamadas variáveis canônicas.. para um particular local geográfico..λ p e λ p+1 ..

de um número n de valores existentes. O termo é geralmente empregado nos casos onde. porém. -∞≤ x≤∞ . o teorema estabelece que se n variáveis . mas sabe-se que está além. CENSORING CENSURA Uma amostra é considerada censurada quando certos valores são desconhecidos (ou deliberadamente ignorados).Neste tipo de estudos identifica-se um grupo de indivíduos (caso) com uma condição de interesse. CENTRAL LIMIT THEOREM TEOREMA DO LIMITE CENTRAL Na sua forma mais simples. ou aquém. CAUCHY DISTRIBUTION DISTRIBUIÇÃO DE CAUCHY Nome geralmente usado para denotar a distribuição contínua dF=dx/π (1+x2). sendo feitas comparações à exposição a um fator ou fatores em estudo. de um limite. e um grupo não afetado (controle). CENSORED DATA DADOS CENSURADOS Uma observação é dita censurada se ela não pode ser medida de forma precisa. somente os k menores ou os k maiores são observados ou k pode ser expresso como uma proporção de n. sua existência é conhecida.

0≤ x≤∞ . CHARACTERISTIC ROOT RAIZ CARACTERÍSTICA Ver Autovalor CHEBYCHEV INEQUALITY DESIGUALDADE DE CHEBYCHEV Se X é uma variável aleatória com variância todo r>0. CHOLESKI DECOMPOSITION DECOMPOSIÇÃO DE CHOLESKI Um dos métodos mais comuns para achar a matriz raiz quadrada é chamado de decomposição de Choleski.independentes têm variâncias finitas então sua soma tenderá. quando expressada em forma padronizada. a . finita. CLASSICAL APPROACH ABORDAGEM CLÁSSICA Uma das duas abordagens existentes em estatística. então Pr{|X-µ X| ≥ rσ X}= Pr{(X-µ X)2≥ (rσ X)2}≤ r-2 para CHI-SQUARE DISTRIBUTION DISTRIBUIÇÃO CHI-QUADRADA Distribuição contínua da de variável aleatória forma dF=e-x/2xv/2-1dx/ [2v/2Γ (v/2)]. que utiliza. à distribuição Normal quando n vai para o infinito. para a estimação de quantidades de interesse.

COLLINEARITY COLINEARIDADE Condição em que algumas covariáveis utilizadas numa regressão resultam da combinação linear de outras. COEFFICIENT OF VARIATION COEFICIENTE DE VARIAÇÃO Medida de variabilidade que resulta da divisão do desvio padrão e a média.informação amostral obtida de um experimento. y=log(- COMPLETE FAMILIES OF DISTRIBUTIONS FAMÍLIAS COMPLETAS DE DISTRIBUIÇÃO Se. a função log-log complementar y. tem por essência identificar um grupo de indivíduos que serão acompanhados para ver o que acontece com eles. para uma família paramétrica de distribuições univariadas ou . COMPLEMENTARY LOG-LOG LOG-LOG COMPLEMENTAR Para uma variável x. é dada por log(1-x)) . Às vezes é apresentada em forma de porcentagem. COHORT STUDY ESTUDO COHORTE Também chamado de follow-up.

COMPLETENESS OF STATISTIC COMPLETITUDE DA ESTATÍSTICA Uma estatística h(x) é completa somente se sua família de densidades é completa.multivariadas f(x|θ ).xq)..xp..... CONDITIONAL DENSITY FUNCTION FUNÇÃO DE DENSIDADE CONDICIONAL Se um conjunto a de variáveis x1. e.xq têm densidade conjunta f(x1..xp. então a família f(x|θ ) é chamada completa.xp+1.. que depende de um vetor de parâmetros θ ........ h(x) é uma estatística independente de θ . COMPONENT OF VARIANCE COMPONENTE DE VARIÂNCIA Qualquer das fontes de variação numa análise de variância que contribui com parte da soma de quadrados dos desvios das observações com relação à média.. COMPOSITE HYPOTHESIS HIPÓTESE COMPOSTA Hipótese estatística que define um intervalo de valores possíveis para o parâmetro de interesse. sub-densidade obtida mantendo constantes algumas das .xp+1.. para todo θ : E[h(x)]=∫ h(x) f(x|θ )dx=0 implica que h(x)=0 identicamente (a não ser possivelmente por uma medida igual a zero).

u)=l(θ . CONDITIONAL POSTERIOR DISTRIBUTIONS DISTRIBUIÇÕES A POSTERIORI CONDICIONAIS Sejam dois parâmetros θ e φ com distribuição a posteriori p(θ .t..u|t)... com função de densidade primeiro o termo é dada do a lado direito por O é l(θ . CONDITIONAL INDEPENDENCE INDEPENDÊNCIA CONDICIONAL Duas variáveis X e Y são condicionalmente independentes dada a variável Z se Pr(X....φ ..xp para xp+1.φ ...φ |x).xp|xp+1..x)=p(θ .variáveis é chamada de condicional.. CONDITIONAL LIKELIHOOD VEROSSIMILHANÇA CONDICIONAL Supondo que o vetor de dados X pode ser particionado como (T. a densidade de x1.xq). CONDITIONAL PROBABILITY é p(θ |φ .φ .... sendo p(φ |x) a distribuição marginal de PROBABILIDADE CONDICIONAL .U). chamado de verossimilhança marginal e segundo verossimilhança condicional.xq fixos é comumente representada por f(x1...t)l(θ . a distribuição a posteriori condicional de θ φ . assim.Y|Z)=Pr(X|Z)Pr(Y|Z).φ |x)/p(φ |x).

onde α é o coeficiente de confiança. é dada por: P(A| B)=P(A. A amostrais classe P ou de distribuições é chamada de família conjugada com relação a F se para toda p∈F e p(θ )∈P tem-se que p(θ |x)∈P.θ ∈ Θ } uma família de distribuições observacionais. Pr(t1≤ θ ≤ t2)=α .B)/P(B). o intervalo entre t1 e t2 é chamado intervalo de confiança. CONJUGATE FAMILY OF DISTRIBUTIONS FAMÍLIA CONJUGADA DE DISTRIBUIÇÕES Seja F={p(x|θ ). CONFIDENCE COEFFICIENT COEFICIENTE DE CONFIANÇA A medida de probabilidade α associada com o intervalo de confiança expressando a probabilidade de que o intervalo inclua o valor verdadeiro do parâmetro.Sejam A e B dois eventos quaisquer. denotada por P(A|B). CONFIDENCE INTERVAL INTERVALO DE CONFIANÇA Se for possível definir duas estatísticas t1 e t2 (funções de valores da amostra somente) de forma que. CONSISTENT ESTIMATOR ESTIMADOR CONSISTENTE . a probabilidade condicional de A. tendo certeza do acontecimento de B. sendo θ o parâmetro a estimar.

ao parâmetro do qual é estimador. então o processo pode ser considerado estatisticamente sob controle. CONTINUITY CORRECTION CORREÇÃO POR CONTINUIDADE Ver Yates’ correction. quando o tamanho de amostra cresce. Cada observação isolada é. Se um processo produz uma série de dados sob o que são essencialmente as mesmas condições e as variações internas são aleatórias.Um estimador é dito consistente se ele converge em probabilidade. processo ou fator contra um padrão aceito. Esta parte . O segundo uso preocupa-se com os testes de um novo método. proveniente de uma população distribuída de acordo com alguma lei estatística estabelecida. CONTROL CONTROLE Há duas formas principais em que este termo é usado em estatística. na verdade. CONTINUOUS RANDOM VARIABLE VARIÁVEL ALEATÓRIA CONTÍNUA Variável aleatória que pode assumir valores nos números reais.

do teste que envolve a comparação do padrão é conhecida como controle. COVARIANCE FUNCTION FUNÇÃO DE COVARIÂNCIA Uma forma coloquial para o termo função de autocovariância. CRAMER-RAO INEQUALITY DESIGUALDADE DE CRAMER E RAO Uma inequação dando um limite inferior para a variância do estimador de um parâmetro. (Ver: coeficiente de autocorrelação e função) COVARIATE COVARIÁVEL Outro nome para variável independente ou regressor. Se t é um estimador de θ . O termo é usado também para o estimador da covariância. CORRELATION COEFFICIENT COEFICIENTE DE CORRELAÇÃO Coeficiente que quantifica o grau de correlação entre duas variáveis. CORRELATION CORRELAÇÃO Método de análise usado para estudar a possível associação entre duas variáveis. COVARIANCE COVARIÂNCIA O primeiro momento do produto de duas variáveis em torno de seus valores médios.

θ ) e se o vício b(θ ) é dado por b(θ )=E(t)-θ (∂ logf/∂ θ )2]. se na outra região (a região de rejeição). críticas. . comumente denota-se a segunda pelo termo de região crítica. CRITICAL REGION REGIÃO CRÍTICA Um teste estatístico de hipótese é feito com base em uma divisão do espaço amostral em duas regiões exclusivas mutuamente. Ambas são.para uma distribuição com função de freqüência f(x. CURVE FITTING AJUSTE DE CURVA Expressão usada em dois sentidos diferentes: (a) para denotar o ajuste a uma curva de freqüência especificada matematicamente a uma distribuição de freqüência. Se o ponto amostral cai em uma (a região de aceitação). mas. será rejeitada. de certa forma. a inequação estabelece que Var(t)≥ E[(1+∂ b/∂ θ )2/ . a hipótese é aceita. CROSS-SECTIONAL STUDY ESTUDO CROSS-SECTIONAL São estudos em que os indivíduos são observados uma única vez. (b) para denotar o ajuste de uma curva matemática a qualquer conjunto de dados possíveis de serem plotadas contra o tempo ou espaço.

CURVILINEAR REGRESSION REGRESSÃO CURVILÍNEA Uma regressão que não é linear. uma expressão matemática mais complicada como uma curva logística. ou por algum processo de suavização como a média móvel. . CYCLE CICLO Em um uso restrito. CURVILINEAR TREND TENDÊNCIA CURVILÍNEA Uma tendência que não é linear. um componente com a propriedade de que f(t+τ )=f(t) . Uma forma usualmente considerada é aquela para a qual a variável dependente é representada como um polinômio das variáveis independentes. onde τ é o período do ciclo. isto é. um movimento periódico em uma série temporal. CUT-OFF PONTO DE CORTE O truncamento artificial de um processo de amostragem em um ponto em que fica aparente a existência de dados suficientes para o objetivo em vista. Pode ser representada como um polinômio.

D .

pode ser sempre considerada amostragem como binomial obtida em que pela a probabilidade P do tipo I tem uma distribuição inicial do tipo II. DECILE DECIL Cada um dos nove valores que dividem a freqüência total em dez partes iguais.DE FINETTI’S REPRESENTATION THEOREM TEOREMA DE REPRESENTAÇÃO DE DE FINETTI Um teorema que se deve a De Finetti (1937). única. que gera uma seqüência binária permutável. onde se estabelece que uma amostra simples. DECISION FUNCTION FUNÇÃO DE DECISÃO .

o espaço de decisão é o conjunto de todas as possíveis decisões. DECISION RULE REGRA DE DECISÃO Seja A o espaço de ações possíveis e Ω o espaço de resultados possíveis de um experimento. O termo é usado de forma genérica e interdisciplinar. DECISION SPACE ESPAÇO DE DECISÃO Em análise seqüencial e na teoria de funções de decisão. que decisão tomar sobre esta. Uma regra de decisão δ é uma função definida em Ω com valores em A. em qualquer estágio de uma pesquisa amostral. indica ao estatístico se é necessário obter mais informação ou se já foi coletada suficiente informação. decorrendo. DECOMPOSITION DECOMPOSIÇÃO . da natureza ampla do processo de decisão.Uma função de decisão é uma regra de conduta que. DECISION THEORY TEORIA DE DECISÃO Disciplina da estatística que envolve e explora a estrutura do processo de tomada de decisão. possivelmente. e em último caso.

De um ponto de vista diferente. (c) uma componente sazonal. (b) oscilações de períodos ou amplitude mais ou menos regulares em torno da tendência. a expressão “graus de liberdade” também é usada para denotar o número de comparações independentes que podem ser feitas entre os membros de uma amostra.O ato da divisão de uma série temporal em suas partes constituintes pelo uso de métodos estatísticos. . DENSITY FUNCTION FUNÇÃO DE DENSIDADE Ver Função de freqüência. Uma série temporal típica é usualmente composta de quatro partes: (a) Um termo de longo prazo ou tendência. DEGREE OF FREEDOM GRAU DE LIBERDADE Este termo é usado de formas diferentes em estatística. DEPENDENT VARIABLE VARIÁVEL DEPENDENTE Variável que é modelada como função de variáveis independentes em análise de regressão. (d) uma componente aleatória. Os graus de liberdade de um conjunto de observações são o número de valores que podem ser arbitrariamente alocados dentro da especificação do sistema.

porém é usualmente baseada em características quantitativas ou atributos. definida como o logaritmo da razão de verossimilhanças avaliadas em y e µ . aquele em que o passado determina completamente o futuro do sistema. . em contraste com a estatística teórica que. A definição dos grupos pode ser em termos de uma variável mensurável. levando em conta a parametrização. DEVIANCE FUNCTION FUNÇÃO DE DEVIANCE A função de deviance. usualmente envolve algum processo de inferência em probabilidade para sua interpretação.DESCRIPTIVE STATISTICS ESTATÍSTICA DESCRITIVA Termo usado para denotar dados estatísticos do tipo descritivo ou os métodos de obtenção destes dados. ou amostra. ao tratar dados práticos. DICHOTOMY DICOTOMIA Uma divisão dos membros de uma população. DETERMINISTIC PROCESS PROCESSO DETERMINÍSTICO Processo estocástico sem erro de previsão. é uma função que mede a discrepância entre os valores observados e os ajustados por um modelo. em dois grupos.

podendo ser. DISTRIBUTION FREE METHOD MÉTODO LIVRE DE . DISPERSION DISPERSÃO O grau de dispersão demonstrado por observações. provenientes com certeza de duas ou mais populações. DISCRIMINATORY ANALYSIS ANÁLISE DISCRIMINANTE Dado um conjunto de observações multivariadas de uma amostra. Também utilizada para comparar as estimativas feitas por um modelo e os dados reais. a média de desvios dos valores entre eles.DIRICHLET DISTRIBUTION DISTRIBUIÇÃO DE DIRICHLET O K-análogo variado da Distribuição Beta. Usualmente é medida como um promédio em torno de um valor central ou de uma estatística de ordem. de dois conjuntos de valores gerados por dois processos. também. ou não. DISCREPANCY FUNCTION FUNÇÃO DE DISCREPÂNCIA Função que avalia a proximidade. o problema é definir uma regra para alocar outros indivíduos na população de origem correta com probabilidade mínima de uma classificação errada.

DUMMY VARIABLE VARIÁVEL DUMMY . a freqüência total é igual a um. neste caso a função de distribuição é a proporção dos membros que têm valores menores ou iguais a x. Como uma regra geral.DISTRIBUIÇÃO Um método que não depende da forma da distribuição considerada. No caso de teste de hipótese. b e c constantes. como uma a. DISTRIBUTION FUNCTION FUNÇÃO DE DISTRIBUIÇÃO A função de distribuição F(x) de uma variável x é a freqüência total dos membros com valores da variável menores ou iguais a x. Um exemplo de distribuição exponencial dupla é a distribuição da semi-amplitude de uma população retangular. a expressão deve ser entendida no sentido de que o teste é independente da distribuição da hipótese nula. considerada -∞≤ x≤∞ . VARIÁVEL LATENTE . b<0. DOUBLE EXPONENTIAL DISTRIBUTION DISTRIBUIÇÃO EXPONENCIAL DUPLA A distribuição com função de densidade f(x)=aeb|x-c|. A distribuição pode ser exponencial ordinária deslocada até o ponto c.

ausência característica pode ser indicada pelos valores 0 ou 1 associados aos indivíduos. (2) ao menos uma equação contém uma função do tempo. etc. por exemplo. Neste sentido a palavra ‘latente/dummy’ deve ser evitada. DYNAMIC MODEL MODELO DINÂMICO Um modelo é considerado dinâmico se possuir uma ou ambas propriedades: (1) ao menos uma variável ocorre nas equações estruturais com valores considerados em diferentes pontos de tempo. escrita em uma uma expressão matemática em forma de uma variável represente constante.Uma quantidade embora. O termo é usado também de forma mais flexível para denotar uma variável a presença artificial ou expressando de uma características qualitativas.. . DURBIN-WATSON STATISTIC ESTATÍSTICA DE DURBIN E WATSON Uma estatística de teste da independência dos erros em uma regressão de mínimos quadrados contra uma alternativa de correlação serial.

E .

EFFICIENCY EFICIÊNCIA O conceito de eficiência em estimação estatística é atribuído a Fisher (1921) como uma tentativa de medir o mérito relativo de vários estimadores possíveis. onde I é a matriz ELEMENTARY UNIT UNIDADE ELEMENTAR Um dos indivíduos que. compõe a população: a menor unidade fornecedora de informação que. se existe um estimador de variância mínima. agregado. Ver Characteristic root que satisfaz |A-λ I|=0. Um estimador é mais eficiente que outro se tem menor variância e. v. EFFICIENT ESTIMATOR ESTIMADOR EFICIENTE Um estimador é dito eficiente se ele é de variância mínima. com . a eficiência de outro estimador com variância v1 é definida como a razão v/v1. EIGENVALUE AUTOVALOR O autovalor ou raiz característica de uma matriz quadrada A é o valor λ identidade.

leva à propriedade populacional em estudo. O algoritmo é iterativo e em cada iteração se alternam as operações de esperança e maximização. EMPIRICAL BAYES ESTIMATOR ESTIMADOR DE BAYES EMPÍRICO Um estimador derivado de um procedimento de Bayes empírico. EMPIRICAL BAYES PROCEDURE PROCEDIMENTO DE BAYES EMPÍRICO . EM ALGORITHM ALGORITMO EM Método geral útil para obter estimadores de mais máxima verossimilhança quando a existem dados incompletos ou quando é simples maximizar verossimilhança de um problema mais geral que envolve quantidades não observáveis.agregação adequada. Estes parâmetros podem ser eliminados através do uso de distribuições marginais ou condicionais. ELIMINATION OF PARAMETERS ELIMINAÇÃO DE PARÂMETROS Em alguns estudos são considerados modelos que possuem parâmetros que não são úteis à análise realizada.

constantes durante um .. EQUILIBRIUM EQUILÍBRIO Em teoria de filas.Termo proposto por Robbins (1956) para denotar a aproximação a um procedimento ótimo de decisão de Bayes que pode ser derivado do uso de dados previamente coletados pelo mesmo procedimento de seleção para uma população em estudo.. 1 para x(n)<x é chamada função de distribuição empírica. k/n para x(1)<x<x(k+1). EMPIRICAL DISTRIBUTION FUNCTION FUNÇÃO DE DISTRIBUIÇÃO EMPÍRICA Dada uma amostra ordenada de n observações independentes x(1)≤ x(2) ≤ .≤ x(n) . sistemas em equilíbrio estatístico são aqueles em que o número de clientes ou itens em espera oscila de forma que a média e a distribuição permanecem longo período. a função Sn(x) definida como: 0 para x≤ x(1). EQUALLY CORRELATED DISTRIBUTION DISTRIBUIÇÃO DE CORRELAÇÃO CONSTANTE Uma distribuição multivariada é de correlação constante se a correlação entre os pares de variáveis é igual a uma constante ρ .

t/Γ (k).ERGODIC CHAIN CADEIA ERGÓDICA Cadeia de Markov com propriedade de ergodicidade. erro é usado em estatística para denotar a diferença entre um valor observado e seu verdadeiro valor. esta palavra denota uma propriedade de certos sistemas que se desenvolvem ao longo do tempo de acordo com leis probabilísticas. ESTIMATE ESTIMATIVA . Esta é a propriedade de ergodicidade. ERLANGIAN DISTRIBUTION DISTRIBUIÇÃO DE ERLANG Distribuição do tipo Gama de forma f(t)=λ (λ t)u-1e. λ proposta por Erlang para o tempo entre chegadas e tempo de atendimento em problemas de filas. ERGODICITY ERGODICIDADE Geralmente. Sob certas circunstâncias um sistema tenderá em probabilidade a uma forma limite que é independente da posição inicial. ERROR ERRO Em geral. um erro no sentido coloquial. Em um sentido mais limitado.

com certo grau de certeza. Se um único valor for calculado estimação para pontual. conseqüentemente. uma estimativa é um valor particular obtido para um estimador em determinada amostra. ele contenha o parâmetro de interesse. cada O parâmetro processo de desconhecido. o processo é chamado estimação por intervalos consiste em calcular um intervalo de forma que. . uma variável cuja distribuição é de grande importância no cálculo da confiabilidade da estimativa a ser calculada a partir dele. É geralmente expressado como uma função de valores de uma amostra e. ESTIMATOR ESTIMADOR Um estimador é uma regra ou método de estimar uma constante de uma população. ESTIMATION ESTIMAÇÃO Estimação está relacionada com a inferência sobre o valor numérico de valores desconhecidos da população baseados em dados incompletos como uma amostra.De forma restrita.

.kn} uma permutação de {1..Xn são permutáveis se as n! permutações (Xk1..EVENT EVENTO Para um espaço amostral definido num experimento. probabilidade associada ao processo não é independente do tempo.. EXCHANGEABILITY PERMUTABILIDADE Seja K={k1. EXPECTED VALUE VALOR ESPERADO O valor esperado de uma função de variáveis é seu valor médio Assim..Xkn) têm a mesma distribuição ndimensional. um evento é qualquer subconjunto do espaço amostral.......n}. EXACT STATISTICAL METHOD MÉTODO ESTATÍSTICO EXATO Usado em estimação por intervalos para afirmar que a distribuição envolvida de é probabilidades completamente conhecida e os níveis de probabilidade são valores exatamente calculados. Quantidades aleatórias X1... . EVOLUTIONARY PROCESS PROCESSO EVOLUCIONÁRIO Qualquer processo A estocástico distribuição não de estacionário... em se amostragens repetidas..

. geralmente envolve algum processo de inferência em probabilidade para sua interpretação. m≤ x≤∞ .. se existir. EXPERIMENTAL STUDY ESTUDO EXPERIMENTAL Em um estudo experimental o pesquisador deliberadamente influencia os eventos e pesquisa o efeito da intervenção. é: ∫ t dF(x1....t(x1..... EXPONENTIAL DISTRIBUTION DISTRIBUIÇÃO EXPONENCIAL Uma distribuição cuja função de densidade é dada por f(x)=σ -1exp{-(xm)/ σ }. em contraste com a estatística teórica que.. O parâmetro σ é o desvio padrão da distribuição..xn com distribuição conjunta dF(x1.. EXPONENTIAL FAMILY FAMÍLIA EXPONENCIAL A família de distribuições com função de probabilidade (densidade) p(x|θ ) pertence à família exponencial com r parâmetros se p(x|θ ) pode ser escrita .xn) é uma estatística dependente das variáveis x1.. EXPLORATORY ANALYSIS ANÁLISE EXPLORATÓRIA Termo usado para denotar os métodos de descrição de dados estatísticos.xn) o valor esperado de t. ao tratar dados práticos..xn)...

EXTRAPOLATION EXTRAPOLAÇÃO Procedimento de estimação de valores que estão fora da amplitude dos dados. e em dados espaciais consiste em obter valores estimados para locais onde não existem observações. EXTREME VALUES VALORES EXTREMOS Valores da variável menores ou maiores com relação a todos os outros membros de uma série. EXPONENCIAL EXPONENTIAL SMOOTHING SUAVIZAÇÃO EXPONENCIAL Um método usado em séries de tempo para suavizar ou prever uma série. EXTREME VALUE DENSITY DENSIDADE DE VALOR EXTREMO Densidades de probabilidades associadas a valores extremos. EXPONENTIAL RANDOM VARIABLE = a(x) exp{Σ jUj(x) φ j(θ ) +b(θ )}.como p(x|θ ) de θ . Em séries temporais equivale a uma previsão. x∈ℵ e ℵ não depende VARIÁVEL ALEATÓRIA Variável aleatória que possui distribuição exponencial. .

F FACTOR FATOR Esta palavra é usada no contexto estatístico de diversas formas: (a) na forma matemática ordinal. por exemplo. um fator de uma expressão matemática. .

(b) para denotar uma quantidade sob exame em um experimento como causa possível de variação. geralmente linear. O padrão de coeficientes diferentes de zero é chamado de padrão de fatores.p são expressas como função de um número m<p de fatores fj junto com elementos residuais. FACTOR MATRIX MATRIZ DE FATORES A matriz de coeficientes (aij) que aparece na relação entre variáveis e fatores numa análise fatorial. se o j-éssimo fator não aparece na i-éssima variável. e assim como um fator da variação.. FACTORIAL ANALYSIS ANÁLISE FATORIAL Parte da análise multivariada na qual as variáveis observadas xi.. por exemplo. que pode ser considerada como parte das variáveis. aij=0. (d) para denotar um item constituinte de um promédio ou número índice. (c) em análise multivariada. FACTOR PATTERN PADRÃO DE FATORES Numa matriz de fatores... . para denotar uma função das variáveis observadas. pode se assumir a priori que alguns elementos são iguais a zero. i=1.

FACTORIAL DESIGN EXPERIMENTO FATORIAL Experimento planejado para examinar o efeito de um ou mais fatores. FELLEGI’S METHOD MÉTODO DE FELLEGI Fellegi (1963) propõe um método de amostragem sem reposição com probabilidade proporcional ao tamanho. F-DISTRIBUTION DISTRIBUIÇÃO F A distribuição da razão de duas quantidades independentes. cada uma distribuída como a variância de uma amostra Normal. FALSE POSITIVE FALSO POSITIVO Em experimentos clínicos. cada um sendo aplicado em pelo menos dois níveis de forma que o efeito diferencial pode ser observado. . quando um teste acusa a presença de um fator que não existe. FIDUCIAL DISTRIBUTION DISTRIBUIÇÃO FIDUCIAL A distribuição de um parâmetro necessário para inferência fiducial sobre esse parâmetro. que permite a rotação da amostra simultaneamente com os cálculos exatos de probabilidades conjuntas de seleção de conjuntos de unidades.

é O objetivo da inferência probabilísticas fazer afirmações sobre os valores de parâmetros desconhecidos. introduzida por R. o análogo matemático do filtro de um raio de luz ou som pela remoção de efeitos não sistemáticos e evidenciando os harmônicos que o constituem. FINITE POPULATION CORRECTION FINITA Quando o tamanho da população é conhecido. FINITE MARKOV CHAIN CADEIA DE MARKOV FINITA Uma cadeia de Markov {xn} é chamada finita com k estados se o número de valores possíveis da variável aleatória {xn} é finito e igual a k. FILTER FILTRO Qualquer método para isolar componentes harmônicos em uma série temporal. é necessário corrigir a variância do estimador de um parâmetro multiplicando-a pelo fator (N-n)/(N-1). CORREÇÃO POR POPULAÇÃO . Fisher (1930).FIDUCIAL INFERENCE INFERÊNCIA FIDUCIAL Tipo de inferência estatística baseada na distribuição fiducial. A.

A medida de informação de Fisher esperada de θ é definida como I(θ )=E[- ∂ 2logp(x|θ )/∂ θ 2]. FISHER INFORMATION INFORMAÇÃO DE FISHER Seja X um vetor de variáveis aleatórias com função de densidade p(x|θ ). FIRST PASSAGE TIME PRIMEIRO TEMPO DE PASSAGEM Conceito importante em processos estocásticos onde. se xN=a e a≠ 0 atingir xN=a pela primeira vez define N como o primeiro tempo de passagem desde a origem ao estado a.que é chamado fator de correção por população finita. podendo ser comparado com o valor realmente observado. FITTED VALUE VALOR AJUSTADO Valor calculado através de um procedimento que usa um conjunto de valores. tem por essência identificar um grupo de indivíduos que serão acompanhados para ver o que acontece com eles. FOLLOW-UP FOLLOW-UP Também chamado de estudo cohorte. Para as diversas realizações de um processo estocástico N é uma variável aleatória. .

.. FOURIER SERIES SÉRIE DE FOURIER Série de fatores de seno e coseno da forma ajcos(2π j/λ j). FORWARD SELECTION SELEÇÃO FORWARD Método de seleção de variáveis numa regressão linear que consiste em ajustar o modelo inserindo as covariáveis uma a uma.. FREQUENCY CURVE CURVA DE FREQÜÊNCIA Representação gráfica de uma distribuição de freqüências contínua. .1. j=0. FREQUENCY FREQÜÊNCIA Número de ocorrências de um dado tipo de evento. j=0..FORECASTING PREVISÃO Cálculo da magnitude que uma quantidade assumirá em um ponto do tempo futuro.1. FOURIER ANALYSIS ANÁLISE DE FOURIER Teoria de representação de funções de uma variável t como a soma de séries de termos que contém senos e cosenos do tipo ajcos(2π j/λ j)..... ou o número de membros de uma população em uma classe específica.

FREQUENCY TABLE TABELA DE FREQÜÊNCIA Tabela desenhada para mostrar a distribuição de freqüências da ocorrência bivariado da curva de . FREQUENCY SURFACE SUPERFÍCIE DE FREQÜÊNCIA Análogo freqüência. FREQUENCY FUNCTION FUNÇÃO DE FREQÜÊNCIA Expressão que fornece a freqüência de uma variável x como função de x. a freqüência elementar em uma amplitude dx. ou. para variáveis contínuas. FREQUENCY POLIGON POLÍGONO DE FREQÜÊNCIA Diagrama que mostra a forma da distribuição freqüências de são freqüências. FREQUENCY DISTRIBUTION DISTRIBUIÇÃO DE FREQÜÊNCIA Especificação freqüências com os da dos valores forma membros que como de as uma as população são distribuídas de acordo assumem variáveis.com a variável na abscissa e a freqüência na ordenada. representadas as como ordenadas contra os valores da variável como abscissas e os topos vizinhos das ordenadas unidos.

baseada na utilização de informação proveniente existente.de uma característica dada de acordo com alguns intervalos de classe específicos. FREQUENTIST APPROACH ABORDAGEM FREQÜENTISTA Uma das duas abordagens em estatística. FREQUENCY THEORY OF PROBABILITY TEORIA FREQÜENTISTA DE PROBABILIDADE A teoria freqüentista de probabilidade considera a probabilidade de um evento como o limite da freqüência de ocorrência desse evento em uma série de n tentativas quando n tende ao infinito. FREQUENTIST THEORY TEORIA FREQÜENTISTA Teoria estatística baseada na abordagem freqüentista. deixando de lado qualquer subjetividade . de um experimento.

G .

GABRIEL’S TEST

TESTE DE GABRIEL Procedimento de comparação simultânea de valores médios numa análise de variância. Baseada na soma de quadrados entre grupos para os 2k-k-1 subconjuntos de dois ou mais médias dos k grupos testada contra o valor crítico fixo da distribuição F com (k-1,n-k) graus de liberdade.

GALTON OGIVE

OGIVA DE GALTON Sob certas condições, isto é, quando a distribuição de freqüências é unimodal, a curva de distribuição tem o formato de Sforma de ogiva, termo emprestado por Galton (1875) da arquitetura e usado particularmente para a curva de distribuição da distribuição Normal.

GAME THEORY

TEORIA DOS JOGOS A área da matemática que trata, geralmente, da teoria da competição de dois ou mais jogadores sob um conjunto específico de regras.

GAMMA DISTRIBUTION

DISTRIBUIÇÃO GAMA Uma distribuição cuja densidade é da forma f(x)=e-xx Pearson ou
λ -1

/Γ (λ ), 0≤ x≤∞ . É como

também conhecida como Tipo III de simplesmente distribuição do tipo III.

GAMMA FUNCTION

FUNÇÃO GAMA Função definida como Γ (c)=∫ xc-1e-xdx, para c>0 e 0≤ x≤∞ .

GAMMA RANDOM VARIABLE

VARIÁVEL ALEATÓRIA GAMA Variável gama. aleatória com distribuição

GAUSSIAN DISTRIBUTION

DISTRIBUIÇÃO GAUSSIANA Nome alternativo para a distribuição Normal.

GAUSS-SEIDEL METHOD

MÉTODO DE GAUSS E SEIDEL Método clássico para a solução iterativa de um conjunto de equações lineares, particularmente para aquelas que surgem como soluções de mínimos quadrados.

GENERAL FACTOR

FATOR GERAL Em análise de componentes, um componente comum a todas as variáveis.

GENERALIZED ADDITIVE MODEL

MODELO ADITIVO Modelo alternativo aos modelos lineares generalizados, em que, para covariáveis x, o preditor linear é dado por

GENERALIZADO

η =α +Σ jfj(xj) no qual fj(xj) são funções
suaves estimadas a partir dos dados.

GENERALIZED INVERSE

INVERSA GENERALIZADA A inversa generalizada de uma matriz A mxn, é uma matriz nxm A- de forma que para qualquer y onde Ax=y consistente, x=A-y é uma solução.

GENERALIZED LEAST SQUARES ESTIMATOR

ESTIMADOR DE MÍNIMOS QUADRADOS GENERALIZADOS Método proposto por Aitken (1934) para estimar os k parâmetros do vetor π em uma equação linear quando os distúrbios v não são independentes, porém, sua matriz de variância-covariância é conhecida.

GENERALIZED LINEAR MODEL

MODELO LINEAR Um modelo linear generalizado é uma extensão dos modelos lineares que satisfaz: (a) as componentes aleatórias, Y, têm distribuição independente que pertence à família exponencial com valor esperado igual a

GENERALIZADO

µ

e

variância

constante; (b) as covariáveis produzem um preditor linear dado por η =Σ jxjβ j; (c) a ligação entre as componentes aleatória e sistemática é dada por g(µ )=η .

GENERALIZED MAXIMUM LIKELIHOOD ESTIMATOR

ESTIMADOR

DE

MÁXIMA

VEROSSIMILHANÇA GENERALIZADA Uma aproximação para a estimação do parâmetro envolvendo o conceito de eficiência assintótica proposto por Weiss e Wolfowitz (1966) para remover alguns dos problemas associados com os estimadores de máxima verossimilhança clássicos.

GENERATING FUNCTION

FUNÇÃO GERADORA Função de um parâmetro t que, quando expandido como uma série de potências de t, produz os valores de algumas quantidades de interesse estatístico em forma de de coeficientes de uma eventos como ou a os de probabilidade momentos freqüência.

distribuição

GEOMETRIC DISTRIBUTION

DISTRIBUIÇÃO GEOMÉTRICA Seja uma variável X que representa o número de tentativas de um experimento até obter um resultado de interesse, X tem distribuição geométrica se sua função de massa de probabilidade é dada por f(x)=(1-p)x-1p, sendo p a probabilidade de obter o resultado de interesse.

O termo é usado especialmente em relação ao ajuste de distribuições teóricas a . o nível de ajuste entre uma série de valores observados e uma segunda série que é derivada inteiramente ou parcialmente de uma base hipotética. GEOMETRIC RANDOM VARIABLE VARIÁVEL ALEATÓRIA Variável aleatória discreta que tem distribuição geométrica. deriva do “ajuste” de um modelo aos dados. GEOMÉTRICA GIBBS SAMPLER ALGORITHM ALGORITMO DO AMOSTRADOR DE GIBBS Método de simulação estocástica que gera amostras de um vetor de parâmetros a partir das distribuições marginais completas. ou seja. GOODNESS OF FIT BONDADE DE AJUSTE Em geral. GOMPERTZ CURVE CURVA DE GOMPERTZ Ver Curva de crescimento.GEOMETRIC MEAN MÉDIA GEOMÉTRICA Medida de locação que consiste em calcular a raiz n-éssima do produto das quantidades amostrais.

de forma que nenhuma letra romana aconteça mais do que uma vez na mesma linha ou coluna. e α . e nenhuma combinação das duas aconteça mais do que uma vez em qualquer lugar..dados observados e o ajuste de retas de regressão. GRID GRADE Malha retangular em um plano formada por dois conjuntos de linhas ortogonais.β .... GRAECO-LATIN SQUARE QUADRADO GRECO-LATINO Uma extensão do Quadrado Latino. geralmente para manter um desenho linear de observações dentro de um papel pautado específico. uma de cada em uma cela do quadrado. Cada linha de cada conjunto é colocada .. GRAPHICAL ESTIMATOR ESTIMADOR GRÁFICO Constante escolhida por tentativa e erro da representação geométrica. nenhuma letra Grega aconteça mais de uma vez na mesma linha ou coluna. Formalmente.. é um arranjo em um quadrado de dois conjuntos de letras (A.).. GRAPHICAL INSPECTION INSPEÇÃO GRÁFICA Método qualidades para observar algumas na estudadas baseado observação de gráficos adequados.B.

na base de valores representativos (como a média) de cada . geralmente um. uma expressão que fornece o tamanho de uma população como função de uma variável do tempo. indivíduos ou observações. GROUP GRUPO Conjunto de elementos. características em comum.a intervalos constantes da linha adjacente. GROWTH CURVE CURVA DE CRESCIMENTO Em geral. GROUP COMPARISON COMPARAÇÃO DE GRUPOS Comparação entre grupos de indivíduos. ou mais. todos os quais possuem uma. Utilizada em algumas formas de amostragem de áreas. descrevendo o curso de seu crescimento.

Pode ser escrita no caso de dados discretos para n .H HARMONIC MEAN MÉDIA HARMÔNICA A média harmônica H de um conjunto de dados é o recíproco da média aritmética de seus recíprocos.

uma palavra que implica na existência de chance ou risco. HIERARCHICAL LINEAR MODELS MODELOS LINEARES Em uma abordagem bayesiana. Uso especial acontece principalmente em conexão com análise do tempo de vida de sistemas físicos ou componentes. HAZARD RISCO Em geral... funcionando no tempo t0 falhe no intervalo (t. ter outra relação hierárquica com hiperparâmetros de mais alto nível. HIERÁRQUICOS .. por sua vez. as taxas de risco resultantes serão conhecidas como função de risco. e assim por diante. um modelo que define uma relação linear para a média das observações. HAZARD FUNCTION FUNÇÃO DE RISCO Probabilidade que um item.xn como como: H-1=n1 Σ i(xi)-1.. Se esta taxa instantânea é calculada em um número de tempos de sobrevida.t+δ t) e é dado por h(t)=f(t)/[1-F(t)]. cujos parâmetros apresentam uma estrutura de hierarquia com os hiperparâmetros que podem.quantidades x1.

a especificação a priori é feita em duas fases: (a) estrutural. Desta forma. representando o intervalo da classe correspondente da variável. para a especificação quantitativa de cada estágio. e a largura de cada seção. HISTOGRAM HISTOGRAMA Um diagrama de freqüências univariado cujas áreas de retângulos são proporcionais às freqüências de classe. (b) subjetiva. . que terá seu conjunto de hiperparâmetros. mas freqüentemente ocorre em conexão com amostras de populações diferentes que podem ou não ser idênticas. HOMOGENEITY HOMOGENEIDADE Este termo é usado em estatística no seu sentido ordinário. Se as populações são idênticas são chamadas homogêneas. e por extensão. os dados amostrais serão chamados homogêneos. para a divisão dos estágios.HIERARCHICAL PRIORS PRIORIS HIERÁRQUICAS Uma boa estratégia para especificar a distribuição a priori é dividir a situação experimental em estágios ou em hierarquias.

A freqüência de r “sucessos” e n-r “fracassos” em uma amostra de n obtida de uma população de N em que existem Np “sucessos” e Nq “fracassos” (p+q=1) é n!(Np)[r](Nq)[n-r]/ (r!(n-r)!Nn) onde N[r]=N(N-1). HYPERPARAMETER HIPERPARÂMETRO Em uma análise bayesiana. . hiperparâmetros são os parâmetros da distribuição a priori.(N-r+1). HYPERGEOMETRIC DISTRIBUTION DISTRIBUIÇÃO HIPERGEOMÉTRICA Uma distribuição de uma variável discreta geralmente associada com a amostragem sem reposição de uma população finita. HYPERGEOMETRIC RANDOM VARIABLE VARIÁVEL ALEATÓRIA HIPERGEOMÉTRICA Variável aleatória discreta que tem distribuição hipergeométrica.HOMOSCEDASTICITY HOMOCEDASTICIDADE Para muitas variáveis aleatórias com distribuição conjunta dada.. a distribuição é chamada homocedástica. se a variância de uma variável é a mesma para todas as outras..

.HYPOTHESIS TESTING TESTE DE HIPÓTESE Processo de decisão para testar hipóteses estatísticas.

I IDENTIFIABILITY IDENTIFICABILIDADE Em certos sistemas de equações estocásticas pode acontecer que alguns ou todos os parâmetros não podem ser estimados de forma separada sem .

ou se o número de equações é igual ao número de variáveis endógenas desconhecidas. Quando um bloco contém menos do que .cometer um vício. IMPORTANCE SAMPLING AMOSTRAGEM POR IMPORTÂNCIA Este método de amostragem. IDENTITY FUNCTION FUNÇÃO IDENTIDADE Seja x uma variável. Se o material é dividido em alocar tratamentos nas unidades dos blocos. os tratamentos podem ser numerosos para que todos apareçam em cada bloco. IMPLEMENTATION IMPLEMENTAÇÃO Expressão usada para denotar a ação de adaptar um modelo a um conjunto de dados reais. apesar de contar com uma grande quantidade de dados. a função f é a função identidade se f(x)=x. INCOMPLETE BLOCKS BLOCOS INCOMPLETOS Forma básica de um planejamento de experimento blocos e se introduzido deseja por Yates certos (1936). usado na análise de Monte Carlo. consiste em concentrar a distribuição de pontos de amostragem naquelas partes do intervalo da variável que são de grande interesse.

. INCOMPLETE MULTIRESPONSE DESIGN EXPERIMENTO DE MULTI-RESPOSTA INCOMPLETO Um planejamento de experimento introduzido por Srivastava (1964) para tratar de situações onde nem todas as variáveis são medidas para cada unidade experimental. Isto pode acontecer quando existe impossibilidade física proveniente de inconvenientes ou de outras considerações como custo.uma replicação completa de tratamentos ele é chamado de bloco incompleto. princípio de independência é geralmente definida probabilidades conjuntas. INDEPENDENCE INDEPENDÊNCIA No como cálculo referência de ao probabilidades. Dois eventos são independentes se a probabilidade de um for a mesma perante a certeza da ocorrência ou não do outro. a freqüência que deveria ser achada em uma cela particular. caso os atributos que a definem sejam independentes. INDEPENDENCE FREQUENCY FREQÜÊNCIA INDEPENDENTE Em uma tabela de contingência.

de regressão. x1. de vista é série ensaios.xk.. A amostragem como uma de características.. as mais variáveis como Quando um x´s uma termo são variável y é expressa como função de variáveis . INDEPENDENT TRIALS ENSAIOS INDEPENDENTES Os ensaios sucessivos de um evento são considerados independentes se a probabilidade do resultado de qualquer ensaio for independente do resultado dos outros.INDEPENDENT RANDOM VARIABLES VARIÁVEIS ALEATÓRIAS Várias variáveis aleatórias são INDEPENDENTES independentes se a distribuição conjunta é igual ao produto das distribuições marginais.. conhecidas independentes.. freqüentemente chamada de ‘Ensaios de Bernoulli’. INDEPENDENT VARIABLE VARIÁVEL INDEPENDENTE Este termo é comumente usado em análise variáveis estocástico. A expressão é geralmente limitada aos casos onde a probabilidade é a mesma para todos os ensaios.

S) igual a 1 ou 0 dependendo se s pertence ou não a A. INEFFICIENT STATISTIC ESTATÍSTICA INEFICIENTE Uma estatística com menos do que a eficiência possível no sentido de ter variância amostral mínima. as mudanças no tempo ou espaço de uma magnitude que não é suscetível de medição direta ou observação direta na prática. INDICATOR FUNCTION FUNÇÃO INDICADORA Dada uma classe de eventos A.INDEX NUMBER NÚMERO ÍNDICE Um número índice é uma quantidade que mostra. INPUT/OUTPUT PROCESS PROCESSO DE ENTRADA/SAÍDA Uma grande classe de processos estocásticos. pode possuir a propriedade para alguma estratégia de amostragem. sobre uma amostra S. pela sua variação. x e y são . nos quais o estado ξ (t) no tempo t é resultado de duas variáveis aleatórias x. ξ (t)=x(t)-y(t). a função indicadora é definida para todos os pontos s em S como I(A. em um contexto de amostragem. INFINITE POPULATION POPULAÇÃO INFINITA Aquela que possui a propriedade de ser infinita para algum processo limitador ou. y.

INTERCORRELATION INTERCORRELAÇÃO Termo usado para denotar a correlação de um número de variáveis entre elas. INTEGRATED DATA DADOS AGREGADOS Classe de dados estatísticos em que os valores para intervalos unitários pequenos podem ser somados para formar séries de valores relacionadas a intervalos maiores. de entrada e saída. respectivamente. . Os processos de filas e processos epidêmicos são exemplos. quando um número de indivíduos ou itens está agrupado de acordo com vários fatores de classificação e estes fatores não são independentes se diz que existe interação entre eles. INTEGER PROGRAMMING PROGRAMAÇÃO INTEIRA Uma forma de programação matemática onde as soluções assumem valores inteiros. distinto da correlação entre elas e uma variável exógena. INTERACTION INTERAÇÃO Em forma geral.chamadas.

INTERPOLATED VALUE VALOR INTERPOLADO Em forma geral. Esta amplitude contém a metade da freqüência total e fornece uma medida simples da dispersão que é útil em estatística descritiva. de tempo. um valor interpolado é um valor previsto para um local onde não existem medições da característica em estudo. Pode existir em diversos tipos de análise: de séries. INTERPOLATION INTERPOLAÇÃO Procedimento para achar valores interpolados. espacial. . um valor interpolado é uma previsão feita baseada nos dados para uma variável não observada. INTERQUARTILE RANGE DISTÂNCIA INTERQUARTÍLICA Distância entre o primeiro e o terceiro quartís. INTERVAL ESTIMATION ESTIMAÇÃO POR INTERVALOS Estimação de um parâmetro populacional mediante a especificação de um intervalo cujos limites superior e inferior contêm o parâmetro. entre outros. Em estatística espacial.

a função inversa g=f-1 tal que g(f(x))=x. INVARIANCE METHOD MÉTODO INVARIANTE Princípio de estimação ou teste de hipótese que requer um estimador ou hipótese quando que os permaneça dados sofrem invariante alguma transformação.INVARIANCE INVARIÂNCIA Este termo é usado em estatística para denotar a propriedade de não sofrer alterações sob algumas transformações. então. INVERSE FUNCTION FUNÇÃO INVERSA Seja uma função f(x). INVERSE DISTRIBUTION DISTRIBUIÇÃO INVERSA Esta expressão é usada para denotar a distribuição variável. também chamada de Gaussiana inversa. da recíproca de uma INVERSA . Esta função nem sempre existe. INVERSE GAUSSIAN DISTRIBUTION DISTRIBUIÇÃO GAUSSIANA Seja X uma variável com distribuição Normal. X-1 terá distribuição Normal inversa.

IRREDUTÍVEL ISOMORPHISM ISOMORFISMO Equivalência lógica de duas teorias. no sentido de uma teoria ser obtida a partir da outra pela tradução ou interpretação de noções e símbolos básicos. J .IRREDUCIBLE MARKOV CHAIN CADEIA DE MARKOV Uma cadeia de Markov é chamada irredutível se todos os pares de estados da cadeia se comunicam.

tn-1 é a média das n estatísticas derivadas omitindo um dos membros da amostra. ntn-(n-1)tn-1 tem vício da ordem 1/n2. .JACKKNIFE JACKKNIFE Método proposto por Tukey (1958). Este método é baseado na idéia que se tn é uma estatística viciada na ordem de 1/n. então. que reduz o vício de estimação e fornece intervalos de confiança nos casos em que a teoria de distribuição ordinária não o permite.

JOINT REGRESSION REGRESSÃO CONJUNTA O modelo clássico de regressão assume que a variável dependente é uma função. mudanças são feitas para permitir a inclusão de produtos cruzados gerando de variáveis assim uma independentes. . JOINT DISTRIBUTION DISTRIBUIÇÃO CONJUNTA A distribuição de duas ou mais variáveis.JEFFREYS’ PRIOR PRIORI DE JEFFREYS Distribuição a priori que consiste na raiz quadrada do determinante da matriz de informação de Fisher. JENSEN’S INEQUALITY DESIGUALDADE DE JENSEN Se X é uma variável aleatória definida no intervalo I. geralmente linear. regressão conjunta. O termo é equivalente a distribuição multivariada. então a desigualdade g(E[X])≤ E[g(X)] é conhecida como desigualdade de Jensen. Se o modelo linear não é adequado. de um conjunto de variáveis independentes. e g é qualquer função convexa em I.

θ 1.....tk. apesar de depender de outros parâmetros.. JOINTLY DISTRIBUTED RANDOM VARIABLES VARIÁVEIS ALEATÓRIAS DISTRIBUÍDAS CONJUNTAMENTE Variáveis aleatórias que possuem uma distribuiço conjunta. K .......θ k) L2 (x1...θ k se a função de verossimilhança pode ser expressa como L1 (t1...tk são conjuntamente suficientes para os parâmetros θ 1.θ k..JOINT SUFFICIENCY SUFICIÊNCIA CONJUNTA Estimadores t1.....xn) onde L2 não depende de θ 1.....

. KOLMOGOROV AXIOMS AXIOMAS DE KOLMOGOROV Conjunto de axiomas definidos por Kolmogorov (1933) que fundamentam a teoria de probabilidade em termos de teoria de conjuntos e da medida.KENDALL’S TAU (τ ) TAU DE KENDALL (τ ) Coeficiente de correlação baseado no número de inversões em um ranking quando comparado com outro.

KRONECKER PRODUCT OF MATRICES PRODUTO DE KRONECKER DE MATRIZES O produto A⊗B de uma matriz A m× m e B n× n é a matriz mn× mn cujos elementos são o produto de termos. um de A e um de B. de probabilidade KRIGING KRIGAGEM Técnica para estimar um efeito puramente espacial numa região através de estimadores lineares cujos pesos são calculados de forma a minimizar a covariância espacial. O teste pode ser usado como teste de bondade de ajuste e a estatística de teste pode ser usada para definir intervalos de confiança para distribuições desconhecidas.KOLMOGOROV-SMIRNOV TEST TESTE DE KOLMOGOROV E SMIRNOV Teste de significância proposto por Kolmogorov (1933) e desenvolvido por Smirnov (1939). KULLBACK-LIEBLER INFORMATION NUMBER NÚMERO DE INFORMAÇÃO DE KULLBACK E LIEBLER O número de informação Ix (1:2) denota a informação média por observação para .

ou seja. KURTOSIS KURTOSE Um termo usado para descrever a extensão pela qual a curva de freqüência unimodal é “pontiaguda”. entretanto. O termo foi introduzido por Karl Pearson em 1906 e. a extensão relativa do declive na vizinhança da moda. ele propôs a razão de momentos µ 4/µ como uma medida de kurtose. 2 2 É duvidoso. L .discriminar entre duas hipóteses H1 e H2 quando H1 é verdadeira: onde Ix(1:2)=∫ f1(x)log(f1(x)/f2(x))ψ (x) ψ (x) é uma medida comum. se qualquer razão única pode medir adequadamente a kurtose.

LAG DEFASAGEM Um evento que acontece no tempo t+k (k>0) é chamado defasado com relação ao tempo t. uma das quais está defasada com relação à outra. LAG CORRELATION CORRELAÇÃO DEFASADA Correlação entre duas séries. uma das quais está defasada com relação à outra. sendo a defasagem de ordem k. LAG COVARIANCE COVARIÂNCIA DEFASADA O primeiro momento dos produtos de duas séries. .

LAPLACE DISTRIBUTION DISTRIBUIÇÃO DE LAPLACE Distribuição de freqüências expressada como dF=(2σ )-1exp{-|x-m|/σ }dx. -∞≤ x≤∞ e σ >0. LAPLACE APPROXIMATION APROXIMAÇÃO DE LAPLACE Método de aproximação de cálculo de integrais que utiliza transformações de Laplace. EXPERIMENTO QUADRADO .LAG REGRESSION REGRESSÃO DEFASADA Uma regressão em que os valores da variável dependente e pelo menos uma das variáveis independentes estão defasadas com relação às outras. LATIN SQUARE DESIGN LATINO Um dos mais comuns planejamentos de experimentos em que k tratamentos são alocados em um quadrado k× k de forma que cada tratamento aparece exatamente uma única vez em cada linha e coluna. então g(t) é a transformação de Laplace de f(x). LAPLACE TRANSFORMATION TRANSFORMAÇÃO DE LAPLACE Se uma função g(t) está relacionada a uma segunda f(x) pela equação g(t)=∫ etx f(x)dx para x>0.

LE AND ZIDEK METHODOLOGY METODOLOGIA DE LE E ZIDEK Metodologia bayesiana proposta em 1992 para a estimação de valores não observados em uma região através de um modelo de regressão Normal. LEAST SQUARES METHOD MÉTODO DE MÍNIMOS QUADRADOS Uma técnica de estimação pela qual as quantidades a estimar são determinadas . então P[-ε <m-µ <ε ]≥ 1δ .LAW OF LARGE NUMBERS LEI DOS GRANDES NÚMEROS Seja f(x) uma densidade com média µ e variância finita σ 2. LAW OF SMALL NUMBERS LEI DOS PEQUENOS NÚMEROS Termo sugerido por von Bortkiewicz (1898) para descrever o comportamento de eventos raros que obedecem uma distribuição de Poisson. Sejam ε e δ dois números que satisfazem ε >0 e 0<δ <1. Se n é um inteiro maior que σ 2/(ε 2δ ). LEAST SQUARES ESTIMATORS ESTIMADORES DE MÍNIMOS QUADRADOS Estimadores obtidos pelo método de mínimos quadrados. e seja m a média amostral de n valores selecionados de forma aleatória de f(x).

minimizando-se quantidades. LEHMANN’S TEST

uma

certa

forma

quadrática das observações e aquelas

TESTE DE LEHMANN Teste não paramétrico para as variâncias de duas amostras.

LEVEL MAP

MAPA DE NÍVEIS Gráfico que mostra as curvas em um plano (x,y) correspondente aos valores da constante k em uma equação definida como f(x,y)=k. É similar aos contornos de mesma altitude em um mapa geográfico.

LEVEL OF SIGNIFICANCE

NÍVEL DE SIGNIFICÂNCIA Em teste de hipótese, é a probabilidade de rejeitar uma hipótese verdadeira. Também chamado de probabilidade de erro tipo I.

LIKELIHOOD FUNCTION

FUNÇÃO DE VEROSSIMILHANÇA Se a função de distribuição de variáveis aleatórias x1,...,xn , que dependem dos parâmetros θ 1,...,θ k, é representada como dF=f(x1,...,xn; θ 1,...,θ k)dx1...dxn, a função f(x1,...,xn;θ 1,...,θ k) considerada como função dos θ ´s para valores fixos

dos

x´s

é

chamada

função

de

verossimilhança. LIKELIHOOD PRINCIPLE PRINCÍPIO DE VEROSSIMILHANÇA Toda a informação de um experimento X está contida na função de verossimilhança. LIKELIHOOD RATIO (LR) RAZÃO DE VEROSSIMILHANÇA (RV) Se x1,x2,...,xn for uma amostra aleatória de uma população f(x;θ 1,θ 2,...,θ k) a verossimilhança desta amostra específica será: L=Π i f(xi;θ 1,θ 2,...,θ k). Esta terá um máximo, com respeito aos θ no espaço de parâmetros Ω , que pode ser escrito L(Ω 0). Para um sub-espaço ω do espaço de parâmetro, existirá um valor máximo L(ω 0). A hipótese nula H0 de que uma população específica em estudo pertença ao sub-espaço ω de Ω ser testada usando-se a razão verossimilhança desta. LIKELIHOOD RATIO TEST TESTE DA RAZÃO DE VEROSSIMILHANÇA Teste de uma hipótese H0 contra uma alternativa H1, baseado na razão de duas pode de

λ =L(ω 0)/L(Ω 0),

0≤ λ ≤ 1 ou alguma função simples

verossimilhanças, cada uma derivada de H0 e H1. LINDLEY’S PARADOX PARADOXO DE LINDLEY A incerteza a priori tem um papel crucial na comparação bayesiana de hipóteses nulas. No limite, quando a variância da distribuição a priori tende ao infinito, o fator de Bayes também aumenta de forma infinita. Este é o resultado de usar prioris não informativas e é conhecido como paradoxo de Lindley. LINEAR ESTIMATOR ESTIMADOR LINEAR Estimador que é função linear das observações. LINEAR GROWTH MODEL (LGM) MODELO DE CRESCIMENTO LINEAR (MCL) Modelo polinomial de primeira ordem que inclui um parâmetro adicional para descrever o crescimento de um processo. LINEAR MODEL MODELO LINEAR Um modelo cujas equações que unem as variáveis estão em uma forma linear. LINEAR PREDICTOR PREDITOR LINEAR Expressão da forma Σ jxjβ
j

usada para

prever alguma quantidade desconhecida.

LINEAR PROGRAMMING

PROGRAMAÇÃO LINEAR Procedimento usado para maximizar, ou minimizar, uma função linear de variáveis que estão sujeitas a restrições expressadas em termos lineares.

LINK FUNCTION

FUNÇÃO DE LIGAÇÃO Em modelos lineares generalizados, é a função que relaciona a média da parte aleatória com o preditor linear.

LOCATION MODEL

MODELO DE LOCAÇÃO X tem um modelo de locação se uma função g e a quantidade θ existem de forma que a distribuição de X , dado θ satisfaz f(x|θ )=g(x-θ ). Neste caso, θ é chamado de parâmetro de locação.

LOCATION PARAMETER

PARÂMETRO DE LOCAL Um parâmetro que localiza a distribuição de freqüência no sentido de definir o centro ou valor típico como uma média ou moda.

LOCATION–SCALE MODEL

MODELO DE LOCAÇÃO-ESCALA X tem um modelo de locação e escala se uma função g e as quantidades θ e σ existem de forma que a distribuição de X dado (θ ,σ ) satisfaz f(x|θ ,σ )=σ
1 -

g((x-θ )/σ ). Neste caso, θ é chamado

de parâmetro de locação e σ parâmetro de escala. LOG LINK LIGAÇÃO LOGARÍTMICA

o

Seja η a função de ligação e µ a média da parte aleatória, então a função de ligação logarítmica é η =log(µ ). LOGISTIC LINK LIGAÇÃO LOGÍSTICA Seja η a função de ligação e µ a média da parte aleatória, então a função de ligação logística é η =log(µ /(1-µ )). Esta função é comumente usada quando a parte aleatória de um modelo linear generalizado segue uma distribuição de Bernoulli. LOGISTIC REGRESSION REGRESSÃO LOGÍSTICA Modelo linear generalizado com ligação logística. LOGIT MODEL MODELO LOGITO Modelo linear generalizado com ligação logística. LOG-LOG TRANSFORMATION TRANSFORMAÇÃO LOG-LOG Transformação de uma probabilidade P de acordo com a fórmula Y=log(-logP). LOG-NORMAL DISTRIBUTION DISTRIBUIÇÃO LOGNORMAL Se o logaritmo de uma variável está distribuído normalmente, então a

variável é chamada de variável com distribuição lognormal. A extensão da desvantagem é geralmente uma função da verdadeira distribuição e da decisão que é realmente feita. possivelmente com relação a uma intervenção. LOG-NORMAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA Variável lognormal. . a desvantagem pode aparecer através do desconhecimento da verdadeira distribuição de x. LONGITUDINAL STUDY ESTUDO LONGITUDINAL São aqueles que estudam mudanças ao longo do tempo. aleatória com distribuição LOGNORMAL LOSS FUNCTION FUNÇÃO DE PERDA No processo de decisão tendo como base a variável x. Esta função é chamada de função de perda.

M .

a função de distribuição de uma variável independente das outras. MARGINAL LIKELIHOOD VEROSSIMILHANÇA MARGINAL Seja t uma estatística usada para estimar um parâmetro θ .θ )=L(t. .xn.. a função de verossimilhança L(x1.. MARGINAL MARGINAL DISTRIBUTION DISTRIBUIÇÃO MARGINAL Para um vetor de variáveis aleatórias..θ ) que depende dos dados através da estatística t é chamada de verossimilhança marginal..MARGINAL DENSITY FUNCTION FUNÇÃO DE DENSIDADE Para um vetor de variáveis aleatórias contínuas. a função de densidade de uma variável independente das outras.

um processo [x1] é chamado de cadeia se o parâmetro de tempo é discreto. ambos relacionados com o Processo de Markov. distribuição posteriori marginal de um parâmetro θ efeito dos outros parâmetro... . MARKOV CHAIN CADEIA DE MARKOV Essa expressão é usada com dois sentidos diferentes..MARGINAL POSTERIOR DISTRIBUTION DISTRIBUIÇÃO A POSTERIORI Em um vetor a de parâmetros a i MARGINAL θ =(θ 1. No outro. MARGINAL PROBABILITY FUNCTION FUNÇÃO DE PROBABILIDADE é a distribuição a posteriori livre do MARGINAL Para um vetor de variáveis aleatórias discretas.. Em um deles. não é afetado da pelo história conhecimento adicional passada do processo. MARKOV PROCESS PROCESSO DE MARKOV Processo estocástico cuja distribuição de probabilidade condicional para o estado em um instante futuro. a função de probabilidade de uma variável independente das outras. dado o estado do presente. O primeiro é preferível. é chamado de cadeia se os valores de x são discretos.θ k).

MATCHED SAMPLES AMOSTRAS EMPARELHADAS Um par.Xn tem a propriedade markoviana se a distribuição condicional de Xj dada a seqüência inteira X1.. MAXIMUM LIKELIHOOD ESTIMATOR (MLE) ESTIMADOR DE MÁXIMA VEROSSIMILHANÇA Qualquer estimador de um parâmetro obtido pelo método de máxima verossimilhança. MASS POINT AT ZERO PONTO DE MASSA EM ZERO Algumas distribuições de variáveis contínuas só valem para valores maiores a zero.MARKOV PROPERTY PROPRIEDADE MARKOVIANA Uma seqüência X1. ou conjunto de amostras emparelhadas são aquelas em que cada membro de uma amostra com está um emparelhado (relacionado) membro em cada amostra através de uma qualidade diferente das estudadas. .. porém..... neste caso se diz que o zero tem massa de probabilidade.Xj-1 só depende dos valores mais recentes. em situações reais este valor pode ser observado com uma freqüência significativamente diferente de zero...

MAXIMUM LIKELIHOOD METHOD MÉTODO DE MÁXIMA VEROSSIMILHANÇA Método de estimação de parâmetros de uma população através do valor (valores) que maximiza (maximizam) a função de verossimilhança de uma amostra. o quadrado médio de um conjunto de dados é a média aritmética central. MEAN OF A RANDOM VARIABLE MÉDIA DE UMA VARIÁVEL Também chamada de valor esperado. dos quadrados de suas diferenças com relação a um valor . MEAN MÉDIA Geralmente utiliza-se média como abreviação de média aritmética que é a soma dos valores observados. MEAN ABSOLUTE DEVIATION DESVIO ABSOLUTO MÉDIO Medida de dispersão derivada do desvio médio de observações a partir de uma medida central. dividida pelo número de elementos considerados na soma. ALEATÓRIA MEAN SQUARED ERROR ERRO QUADRADO MÉDIO Em forma geral. sendo os desvios considerados em valor absoluto.

. METROPOLIS-HASTINGS ALGORITHM ALGORITMO DE METRÓPOLIS E Algoritmo de MCMC baseado na HASTINGS utilização de uma distribuição auxiliar. chamada distribuição proposta e aceitá-las como sendo da distribuição de interesse com uma certa probabilidade..xn arrumados em ordem de magnitude. a . centrais ou típicos.MEASURE OF LOCATION MEDIDA DE LOCAÇÃO Uma qualidade que pretende localizar uma distribuição ou um conjunto de valores amostrais através de quantidades que são.. A idéia é gerar amostras da distribuição auxiliar. de alguma forma. METHOD OF MOMENTS MÉTODO DE MOMENTOS Método de estimação de parâmetros baseado na construção de sistemas de equações em que são igualados os momentos centrais com seus respectivos momentos amostrais. MEDIAN MEDIANA A mediana é o valor da variável que divide a freqüência total em duas metades iguais.. x1. MID-RANGE SEMI AMPLITUDE Para um conjunto de valores.

foi perdido por razões alheias à pesquisa. MIXTURE OF DISTRIBUTIONS MISTURA DE DISTRIBUIÇÕES Um processo de obter uma média ponderada de um grupo de funções de distribuição que é uma nova função de distribuição. Em análise estatística o modelo é representado geralmente por símbolos. MISSING VALUE VALOR PERDIDO Palavra para representar um valor que não foi observado ou. MODE MODA A observação mais freqüente de um conjunto de dados. se observado. em forma matemática. MODEL MODELO Um modelo é uma expressão formalizada de uma teoria ou da situação de causa que se assume ter gerado um conjunto de dados observados.semi amplitude é definida como: (x1+xn)/2. isto é. porém também existem modelos representados em grafos. Existem técnicas para estimar estes valores. .

MODEL CHOICE SELEÇÃO DE MODELO A seleção de modelos é uma tarefa de muita importância em estatística. MODEL SELECTION SELEÇÃO DE MODELOS Ver: Model choice . Um exemplo de modelo para este tipo de dado é o modelo de regressão logística. A seleção de modelos se encarrega de criar mecanismos para a escolhe do modelo que melhor representa os dados obtidos a partir de um problema real. tomados cuidados especiais na hora de definir o modelo. Existem diversas ferramentas com esta finalidade. MODEL FOR BINARY RESPONSE MODELO PARA RESPOSTA BINÁRIA Quando os dados assumem dois valores possíveis. que geralmente representam a ausência ou presença devem ser de uma característica. Uma situação real pode ser representada através de vários modelos que passam a competir entre eles.MODEL CHECKING VERIFICAÇÃO DO MODELO A verificação do modelo consiste em avaliar o grau de ajuste deste aos dados disponíveis.

m. quando expandida como uma série de potências em t fornece os momentos de uma distribuição de freqüências como coeficientes das potências. ou f(xi)≤ f(xj) ou f(xi)≥ f(xj). ela é crescente ou decrescente. ∫ (x-m)rdF(x). MOMENT ESTIMATOR ESTIMADOR DE MOMENTOS Estimador de um parâmetro desconhecido de uma distribuição obtido pelo método dos momentos. ∫ xrdF(x). MOMENT GENERATING FUNCTION FUNÇÃO GERADORA DE Função de uma variável t que. para xi<xj. ou. MONOTONIC FUNCTION FUNÇÃO MONOTÔNICA Função f(x) de forma que. um momento é o valor médio da potência de uma variável aleatória.MOMENT MOMENTO Em geral. quando se fala em momento em torno de um valor central. MONTE CARLO MARKOV CHAIN METHODOLOGY MÉTODO DE MONTE CARLO EM CADEIAS DE MARKOV (MCMC) A idéia central por trás dos métodos de MCMC é criar uma cadeia de Markov fácil de simular e tem distribuição de MOMENTOS . isto é.

.. contra uma hipótese ..wk... MOST POWERFUL TEST TESTE MAIS PODEROSO Um teste de hipótese que é mais poderoso alternativa.2... MOVING AVERAGE MÉDIA MÓVEL Se uma série de tempo é dada por x1..xn e se existem pesos dados por w0. de forma que a soma desse pesos é 1.equilíbrio dada pela distribuição de interesse..w1. MONTE CARLO METHODS MÉTODOS DE MONTE CARLO Termo usado para denotar a solução de problemas matemáticos em um contexto matemático através de experimentos de amostragem. t=1. a série de valores ut=Σ kwjxt+j....n-k. é chamada de série de médias móveis. MOST EFFICIENT ESTIMATOR ESTIMADOR MAIS EFICIENTE Um estimador não viciado cuja variância não é maior que a de qualquer outro estimador não viciado é chamado estimador mais eficiente.

em n experimentos.0≤ xi≤ n.. Se há k resultados possíveis incompatíveis e exaustivos de algum evento para o qual as probabilidades separadas são pi (i=1. x2 de segundo tipo. xk de k-ésimo tipo é f(x1. uma situação em que existe uma relação linear que conecta as variáveis independentes.MULTICOLLINEARITY MULTICOLINEARIDADE Em análise de regressão. MULTINOMIAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA Variável aleatória discreta que tem distribuição multinomial.. MULTINOMIAL MULTIPLE DECISION METHODS MÉTODOS DE DECISÃO Termo geral para descrever técnicas estatísticas para tratar problemas em que os possíveis resultados ou decisões são mais de dois. 2. MULTINOMIAL DISTRIBUTION DISTRIBUIÇÃO MULTINOMIAL A distribuição discreta associada com eventos que podem ter mais de dois resultados: é a generalização da distribuição binomial...xk)=n!Π i(pixi/xi!).. k) então.. a distribuição de x1 eventos de primeiro tipo. MÚLTIPLA . ....

MULTIPLICATIVE EFFECT EFEITO MULTIPLICATIVO Alguns fatores são representados através de efeitos que se multiplicam nas equações que formam um modelo. MULTIPLE REGRESSION REGRESSÃO MÚLTIPLA Regressão de uma variável dependente em mais de uma variável independente ou preditora. . exaustivas MÚLTIPLA baseados em observações de variáveis MULTIPLE MARKOV PROCESS PROCESSO MARKOVIANO MÚLTIPLO Processo estocástico em que as probabilidades de transição dependem de valores prévios em mais de um ponto. estes efeitos são chamados multiplicativos e expressam a influência do fator como uma proporção de aumento. Em muitos contextos a expressão é equivalente a processo auto-regressivo.MULTIPLE DECISION PROBLEM PROBLEMA DE DECISÃO Problema de escolha de hipótese ou decisão dentre um conjunto exclusivas e de k alternativas aleatórias. ou diminuição do valor médio.

MULTIVARIATE DISTRIBUTION DISTRIBUIÇÃO MULTIVARIADA A distribuição simultânea de p variáveis (p>1): ou de forma equivalente. MUTUALLY EXCLUSIVE EVENTS EVENTOS MUTUAMENTE Dois eventos são mutuamente MULTIVARIADA EXCLUSIVOS exclusivos quando a probabilidade deles . não mais de uma variável de com Também ser chamados confundidos processos simultâneos ou vetoriais que devem processos multi-dimensionais que estão relacionados com a presença de mais de um parâmetro. MULTIVARIATE REGRESSION MODEL MODELO DE REGRESSÃO Modelo de regressão com mais de uma variável dependente. MULTIVARIATE PROCESSES PROCESSOS MULTIVARIADOS Uma classe de processos estocásticos envolvendo aleatória. a distribuição de probabilidades de p variáveis.MULTIVARIATE ANALYSIS ANÁLISE MULTIVARIADA Esta expressão é usada para denotar a análise de dados multivariados no sentido de cada indivíduo ter p variáveis observadas.

.acontecerem simultaneamente é identicamente igual a zero.

N .

Esta distribuição é também chamada de Pascal.1. Por exemplo. então a família P de todas as densidades p é chamada de família conjugada natural com relação ao modelo de amostragem que tem função de verossimilhança l. para todo vetor b não nulo.x) obtida da família F. NEGATIVE DEFINITE MATRIX MATRIZ DEFINIDA NEGATIVA Uma matriz A é definida negativa se b ´Ab<0. existe uma constante k que define uma densidade p de forma que p(θ )=kl(θ . . a freqüência para x=j é o coeficiente de tj na expansão de (1-pt)n (1-p)n em potências de t.x). se os valores da variável são 0.NATURAL CONJUGATE FAMILY OF DISTRIBUTIONS FAMÍLIA CONJUGADA DE DISTRIBUIÇÕES NATURAIS Se para qualquer verossimilhança l(θ . etc. NEGATIVE BINOMIAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA BINOMIAL NEGATIVA Variável aleatória discreta com distribuição binomial negativa.2. NEGATIVE BINOMIAL DISTRIBUTION DISTRIBUIÇÃO BINOMIAL NEGATIVA Distribuição em que as freqüências relativas (probabilidades) são definidas por um binômio com índice negativo.

Isto é uma extensão da propriedade markoviana para o caso espacial. ∆ ={δ i∈I} de subconjuntos de G é um sistema de vizinhança se para todo i∈I: (a) i∉ δ i. o efeito de vizinhança assume que.NEGATIVE MOMENTS MOMENTOS NEGATIVOS Os momentos de negativos freqüências de são uma os distribuição momentos dos recíprocos das potências de uma variável... NEIGHBORING CRITERIA CRITÉRIO DE VIZINHANÇA Em estatística espacial.. . especificamente quando são utilizados os efeitos CAR. (b) j∈ δ i implica que i∈ δ j. critério utilizado para definir os vizinhos dentro de uma região. NEIGHBORING EFFECT EFEITO DE VIZINHANÇA Em estatística espacial. pelo Um conjunto sistema I={1.. para um particular local só os vizinhos o influenciam.m}. NEIGHBORHOOD SYSTEM SISTEMA DE VIZINHANÇA Considerar um grafo conexo G com vértices indexados m≤∞ .

NEWTON-RAPHSON ALGORITHM ALGORITMO DE NEWTON E Algoritmo iterativo usado para obter as raízes de uma função diferencial. etc. estatísticas. estados.. definem-se vizinhos como locais que apresentam fronteiras geográficas comuns.NEIGHBORS VIZINHOS Em estatística espacial. NESTED HYPOTHESIS HIPÓTESES ENCAIXADAS Seqüência de hipóteses em que a hipótese para um estágio está contida em todas as hipóteses posteriores da seqüência. entre outras utilizações RAPHSON . precisando ser adaptada para o caso em que a quantidade de interesse é observada de forma contínua ao longo de toda a região de estudo. Este conceito é claramente definido para o caso em que as observações são de contagens e feitas em regiões fechadas de mapas. como municípios. condados. Este algoritmo pode ser adaptado para a obtenção de estimadores de máxima verossimilhança ou a moda de uma distribuição.

xn)/ L(θ 1. Neyman e E.xn)≤ k se (x1. NEYMAN NEYMAN-PEARSON LEMMA LEMA DE NEYMAN E PEARSON Seja x1.... atribuída a J. (b) λ =L(θ 0.xn uma amostra aleatória de f(x... NEYMAN-PEARSON THEORY TEORIA DE NEYMAN E PEARSON Teoria geral de teste de hipótese... Pearson. sendo C e C* complementares. onde θ é um parâmetro que pode ter dois valores possíveis θ 0 ou θ 1.... Então. Seja k uma constante positiva e C um subconjunto do espaço amostral que satisfaz: (a) Pθ 0[(x1.xn) ∈C]=α ..xn)∈C e λ ≥ k se (x1. NOISE RUÍDO Termo conveniente para uma série de distúrbios aleatórios emprestados da ...NEYMAN’S FACTORIZATION CRITERIA CRITÉRIO DE FATORIZAÇÃO DE A estatística t é suficiente para θ se e somente se p(x|θ )=f(t...x1.... e seja 0<α <1 fixo.xn)∈C*. o teste correspondente à região crítica C é o teste mais poderoso de tamanho α para θ =θ 0 contra θ =θ 1.... θ )g(x) onde f e g são funções não negativas. θ ).. Está baseada na consideração de dois tipos de erros que podem ser cometidos na hora de julgar uma hipótese estatística..x1..

neutra produzindo uma a a que permite os que estrutura evidência experimental tenha uma forte influência sobre resultados posteriori.teoria de som. seja diferente do sinal recebido y. NONRANDOM SAMPLE AMOSTRA DETERMINÍSTICA OU AMOSTRA NÃO ALEATÓRIA Amostra selecionada mediante um procedimento não aleatório. o Em ruído teoria resulta de na comunicação. Exemplos destas prioris são a priori de Jeffreys. tendo este último uma distribuição de probabilidade que depende de x. possibilidade de que um sinal enviado. Estes tipos de Fisher. NON-INFORMATIVE PRIORS PRIORIS NÃO INFORMATIVAS São distribuições a priori que permitem fazer inferência baseadas em informação subjetiva análise mínima. definida como a raiz quadrada do determinante da matriz de informação uniforme. NOMINAL SCALE ESCALA NOMINAL Escala de valores categóricos que podem ser considerados carentes permutáveis de e totalmente hierárquica. e a priori . x.

de amostras não podem ser usadas para fazer inferência. por nenhuma transformação linear das suas variáveis. NORMAL APPROXIMATION TO BINOMIAL APROXIMAÇÃO NORMAL PARA BINOMIAL Seja X uma variável aleatória com distribuição binomial. NORMAL DISTRIBUTION DISTRIBUIÇÃO NORMAL A distribuição de freqüências com de variáveis contínuas amplitude infinita cuja função de densidade é: f(x)=exp(-(x-m)2/σ 2)/√2π σ 2. então (X-np)/(np(1-p)) pode ser aproximada pela distribuição Normal com média igual a zero e variância igual a 1. Se o número de ensaios n é muito grande e a probabilidade p de sucesso é muito pequena de forma que np>5 e np(1-p)>5. ser convertida em uma distribuição com menos de p variáveis. NONSINGULAR DISTRIBUTION DISTRIBUIÇÃO NÃO SINGULAR Distribuição multivariada de p variáveis que não pode. NONSINGULAR MATRIX MATRIZ NÃO SINGULAR Matriz que possui um determinante não nulo. .

NORMALIZING TRANSFORMATION TRANSFORMAÇÃO Transformação de variáveis com o objetivo de reduzir a distribuição original a uma Normal ou aproximadamente Normal.-∞≤ x≤∞ . NUISANCE PARAMETERS PARÂMETROS DE DISTÚRBIO Nas teorias tanto de estimação quanto de testes de significância surge o problema de encontrar uma distribuição desconhecidos de da amostragem que seja independente de certos parâmetros população. Embora estes parâmetros sejam essenciais para a especificação. eles possuem um ‘distúrbio’ na formação de afirmações exatas sobre outros de equações a simultâneas de para estimação parâmetros via método de mínimos NORMALIZADORA . onde m é a média e σ o desvio padrão. NORMAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA NORMAL Variável aleatória contínua que tem distribuição Normal. NORMAL EQUATIONS EQUAÇÕES NORMAIS Conjunto construídas quadrados.

NULL HYPOTHESIS HIPÓTESE NULA Em geral.parâmetros. a hipótese que determina a probabilidade do erro tipo I. O caso típico de parâmetro de ‘distúrbio’ aparece na definição de intervalos de confiança para a média. o termo é restrito a uma hipótese em teste de “sem diferença”. que dependem da variância da população. distinto de hipóteses alternativas que estão sob consideração. NUMERICAL INTEGRATION METHODS MÉTODOS DE INTEGRAÇÃO Coleção de métodos usados para resolver problemas de integração em inferência. Em alguns contextos. principalmente quando a dimensão do espaço de parâmetros é moderada. este termo está relacionado com uma hipótese em particular em teste. Estes métodos são usados quando a solução analítica é inviável. entretanto. porém. NUMÉRICA O . a dificuldade neste caso é contornada usando a distribuição de Student que não depende da variância. É.

OBSERVABLE VARIABLE VARIÁVEL OBSERVÁVEL Uma variável matemática ou estocástica. . a diferença de variáveis não observáveis que são incluídas em equações estruturais mas. que não são diretamente observadas. cujos valores podem ser diretamente observados.

ONE-SIDED TEST TESTE UNILATERAL Teste de uma hipótese para a qual a região de rejeição está totalmente localizada em uma cauda da distribuição da estatística de teste. . ODDS RATIO RAZÃO DE CHANCES Um termo alternativo para Risco relativo. OGIVE OGIVA Nome genérico da ogiva de Galton. OPERATING CHARACTERISTIC CURVE CURVA OPERATIVACARACTERÍSTICA Gráfico que representa as probabilidades de aceitar hipóteses alternativas quando uma hipótese nula é verdadeira nas ordenadas contra os valores da hipótese alternativa nas abscissas. ODDS CHANCES Divisão da probabilidade de sucesso e a probabilidade de insucesso para um experimento de Bernoulli.OBSERVATIONAL STUDY ESTUDO OBSERVACIONAL Em um estudo observacional o pesquisador colhe a informação sobre os atributos ou faz as medições necessárias sem influenciar os eventos.

estes valores ordenados são conhecidos como estatísticas de ordem. ORDER STATISTICS ESTATÍSTICA DE ORDEM Quando uma amostra de uma variável está arrumada em ordem de magnitude. OPTIMUM LINEAR PREDICTOR PREDITOR LINEAR ÓTIMO Preditor de valores futuros de um processo estocástico linear em de forma de combinação observações passadas e que minimiza o erro médio quadrático de previsão. e especialmente em controle de qualidade e análise seqüencial. ORDER OF A MARKOV CHAIN ORDEM DE UMA CADEIA DE MARKOV Número de tempos discretos do passado que determinam a probabilidade de ocorrência de um estado numa cadeia de Markov. .OPERATING CHARACTERISTIC FUNCTION FUNÇÃO OPERATIVACARACTERÍSTICA Na teoria de decisões. uma descrição da regra de decisão que fornece a probabilidade de aceitar hipóteses alternativas quando uma hipótese nula é verdadeira.

surgindo a questão de se eles são de uma população diferente. OUTLIER VALOR DISCREPANTE Em uma amostra de n observações é possível para um número limitado de dados estarem separados. OVER-DISPERSION SUPER DISPERSÃO O termo super dispersão significa que a variância da variável observada excede a variância nominal para a distribuição usada. Não prática é comum encontrar situações em que existe super dispersão. sendo Ip a matriz identidade de ordem p. Tais valores são chamados discrepantes. do restante. em valores. A incidência e o grau de super dispersão . ORDINAL SCALE ESCALA ORDINAL Escala de valores categóricos ordenados por alguma hierarquia.ORDERED SERIES SÉRIE ORDENADA Conjunto de valores de uma variável que possui uma seqüência natural no tempo ou no espaço. ou a técnica de amostragem não foi adequada. ORTHOGONAL MATRIX MATRIZ ORTOGONAL Uma matriz quadrada A de ordem p é ortogonal se A’A=AA’=Ip.

depende do campo de P .encontrada aplicação.

O domínio de variação permissível de parâmetros define a classe . por exemplo). Em estatística.PARAMETER PARÂMETRO Esta palavra é usada no seu significado matemático comum de uma quantidade desconhecida que pode variar numa amplitude de valores. é mais encontrada em expressões que definem distribuições de probabilidade (parâmetros modelos populacionais) descrevem ou em que situações estocásticas (parâmetros de regressão.

se relacionadas à renda ou não. A variável x pode ser medida de algum valor arbitrário.de população ou modelo sob consideração. PARETO DISTRIBUTION DISTRIBUIÇÃO DE PARETO Uma relação empírica que descreve o número de pessoas y cuja renda é x. não necessariamente zero. PARAMETER ESTIMATION ESTIMAÇÃO DE PARÂMETRO Procedimento estatístico utilizado para aproximar o valor verdadeiro de um parâmetro proveniente de uma população. rP é definido pela equação rP=(Y-m)/√V(m). . PASCAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA PASCAL Variável aleatória discreta com distribuição Pascal. 0≤ x≤∞ . e V(m) é a variância de m. onde Y é uma variável com média m. também chamada distribuição binomial negativa. A expressão é usada para denotar qualquer distribuição de freqüência desta forma. Utiliza dados amostrais. primeiramente definida por α Pareto (1897) com a forma y=Ax-(1+ ). PEARSON RESIDUAL RESIDUAL DE PEARSON O residual de Pearson.

PIVOTAL STATISTIC ESTATÍSTICA PIVOTAL Seja x1.xn e θ . isto é..PERCENTILE PERCENTIL A série de valores que dividem a freqüência total em cem partes iguais. POINT PATTERN PADRÃO PONTUAL Conjunto de dados que consiste numa série de locais de uma região geográfica em estudo.. POISSON DISTRIBUTION DISTRIBUIÇÃO DE POISSON Uma distribuição relativas discreta em com valores freqüências λ variáveis 0........xn uma amostra aleatória de p(x.xn.. Q é função de x1. r.θ ).. na qual são observadas algumas características de interesse... Alguns escritores preferem usar o termo “centil” em vez de “percentil”. 2.. . Esta série de valores específica é mais usada em educação e psicologia. dada por e- λ r/r! POISSON PROCESS PROCESSO DE POISSON Um processo estocástico que pode ser considerado como um caso específico de . então Q é chamada de estatística pivotal. Seja Q=q(x1. Se Q tem distribuição que não depende de θ .... 1..θ ).

a quantidade de informação conhecida sobre um parâmetro θ . para todo vetor b não nulo. POSITIVE RANDOM VARIABLE VARIÁVEL ALEATÓRIA POSITIVA Variável aleatória que assume valores positivos. POISSON RANDOM VARIABLE VARIÁVEL ALEATÓRIA DE POISSON Variável aleatória discreta com distribuição de Poisson. relacionado aos dados através de p(x|θ ). POLYNOMIAL REGRESSION REGRESSÃO POLINOMIAL Regressão que contém potências de uma variável independente. O preditor tem a forma β 0+β 1x1+β 2x2+β 3x3+. POSITIVE DEFINITE MATRIX MATRIZ DEFINIDA POSITIVA Uma matriz A é definida positiva se b’Ab>0. POSTERIOR DISTRIBUTION DISTRIBUIÇÃO A POSTERIORI Depois de ter observado um conjunto de dados.um Processo de Nascimento em que o parâmetro λ n é uma constante λ . está contida na distribuição a posteriori. X. que pode ser calculada através do teorema de Bayes. p(θ |X)... .

. que contém as variâncias e covariâncias de um vetor de PREDICTION PREVISÃO Em geral. previsão é o processo de determinar a magnitude de variáveis estatísticas em alguns pontos de tempo futuros. como a recíproca da PRECISION MATRIX MATRIZ DE PRECISÃO Inversa da matriz variáveis aleatórias. A precisão é quantificada variância.POWER FUNCTION FUNÇÃO PODER Quando as hipóteses alternativas para uma hipótese nula formam uma classe que pode ser especificada por um parâmetro θ função de θ o poder de um teste de é chamado de função hipótese nula considerado como uma poder. PRECISION PRECISÃO Refere-se ao grau de dispersão existente em um conjunto de dados. Comparações entre o número de diferentes testes são feitos superpondo os gráficos das correspondentes funções poder.

(c) P(A∪ B)=P(A)+P(B)-P(A∩ B). expressa de alguma forma um “grau de crença”. a probabilidade P satisfaz: (a) 0≤ P(A)≤ 1. .PRIOR DISTRIBUTION DISTRIBUIÇÃO A PRIORI Representação probabilística da informação inicial existente sobre um parâmetro de interesse antes de realizar algum experimento relacionado com tal parâmetro. ou o limite de freqüência em uma série aleatória infinita. Eles estabelecem que para eventos A e B. PROBABILITY PROBABILIDADE Um conceito básico que pode ser considerado indefinível. PRIOR INFORMATION INFORMAÇÃO A PRIORI Informação inicial existente sobre algum parâmetro de interesse. PROBABILITY AXIOMS AXIOMAS DE PROBABILIDADE Axiomas que definem a teoria clássica de probabilidades. PRIOR MEAN MÉDIA A PRIORI Valor esperado do parâmetro usando a distribuição a priori. (b) P(Ω )=1 sendo Ω o espaço amostral.

o modelo probito considera a proporção de sobreviventes.. a probabilidade de ocorrências conjuntas do conjunto de variáveis x1..PROBABILITY DENSITY FUNCTION FUNÇÃO DE DENSIDADE DE PROBABILIDADE Nome alternativo para a função de freqüências quando a variável de estudo é contínua. P-VALUE P-VALOR A probabilidade de ter obtido um conjunto de dados se a hipótese nula for verdadeira. PROBABILITY DISTRIBUTION DISTRIBUIÇÃO DE PROBABILIDADE Distribuição que fornece a probabilidade de um valor x como função do próprio valor. sem levar em conta dados históricos. π x.. ou de forma mais geral. PROBIT MODEL MODELO PROBITO Em modelos lineares generalizados. para a dose x como função de x. PROSPECTIVE STUDY ESTUDO PROSPECTIVO É um tipo de estudo em que os dados são coletados a partir do início do mesmo.xp como função das suas quantidades. que é geralmente medida na escala logarítmica. ..

Q .

análises de variância. QUARTILE QUARTIL Há três valores que separam a freqüência total de uma distribuição em quatro partes iguais. . O valor central é chamado de Mediana e os outros dois o quartil superior e o inferior respectivamente.QUADRATIC FORM FÓRMULA QUADRÁTICA Uma função quadrática homogênea da forma Q=Σ iΣ jaijxixj=x’Ax onde A é a matriz da forma quadrática e geralmente assumida como simétrica. A forma quadrática é importante em análises multivariáveis e. em particular.

R .

RANDOM EFFECT EFEITO ALEATÓRIO Efeito de algum fator não sistemático com probabilidade de ocorrência determinada por alguma distribuição de probabilidades. denotada por X. RANDOM SAMPLE AMOSTRA ALEATÓRIA Amostra coletada por um método de seleção aleatória. uma variável aleatória. estendendo o conceito. e. RANDOM SELECTION SELEÇÃO ALEATÓRIA Método para selecionar unidades de uma amostra de forma que cada amostra possível tenha uma probabilidade fixa e determinada de ser selecionada. RANDOM VARIABLE VARIÁVEL ALEATÓRIA Para um determinado espaço amostral Ω . RANDOMIZATION ALEATORIZAÇÃO Uma série de objetos é considerado aleatório quando arranjados em uma ordem aleatória. é uma função com domínio Ω e contradomínio a reta real. uma série de tratamentos aplicados para uma série de unidades é considerado tratamento aleatório aplicado quando para o qualquer unidade dada é escolhido aleatoriamente .

RANDOMIZED BLOCKS disponíveis ou ainda não BLOCOS ALEATORIZADOS Um experimento em que cada bloco contém uma replicação completa dos tratamentos que são alocados para várias unidades nos blocos de uma maneira aleatória e. RANGE AMPLITUDE O valor maior menos o valor menor de uma série de variáveis. mas em termos de média de amplitude em amostras repetidas. RAO-BLACKWELL THEOREM TEOREMA DE RAO E BLACKWELL Teorema que fornece uma forma de construir um estimador não viciado de variância suficiente. conseqüentemente. permitindo estimações sem vício de erro. A amplitude é uma medida de dispersão. mínima a partir de um estimador não viciado e um estimador .daqueles alocados. pode disponibilizar uma estimativa razoável do desvio padrão populacional.

REPLICATION REPLICAÇÃO A execução de um experimento ou pesquisa mais de uma vez para aumentar a precisão e também obter uma estimação mais próxima de um erro de amostragem. ou seja. estatístico existentes para entre investigar diversas REGRESSOR REGRESSOR Um sinônimo para variável independente em relação a uma regressão. RESIDUAL RESÍDUO Um termo geral que denota a quantidade restante depois de alguma outra quantidade ter sido subtraída. 1 – F(t) onde F(t) é a função de distribuição dos tempos de vida. . Outras definições também estão presentes nas áreas de ensaios biológicos e testes educacionais.Ocorre em uma variedade de contextos específicos. RELIABILITY CONFIABILIDADE Este termo é usado como a probabilidade de sobrevivência após o tempo tn.REGRESSION ANALYSIS ANÁLISE DE REGRESSÃO Método relações variáveis.

ROBUSTNESS ROBUSTEZ Um teste é considerado robusto se os pontos de significância de um teste variam pouco se a população se afasta substancialmente da normalidade. o risco é o custo esperado de um experimento mais o valor esperado da função de perda.RETROSPECTIVE STUDY ESTUDO RETROSPECTIVO É o tipo de estudo em que os dados se referem a eventos passados. RISK RISCO Esta palavra aparece em estatística na sua forma simples. e tem um significado especial na teoria de Funções de Decisão. sendo obtidos de recursos já existentes. Em um sentido mais geral. um procedimento estatístico é descrito como robusto se não for sensível às suposições iniciais a qual é dependente. Onde um número de decisões possíveis tem uma função de perda associada. .

S .

SAMPLE VARIANCE VARIÂNCIA AMOSTRAL Variância de uma amostra. O domínio permissível de variação de um ponto amostral. SAMPLE MEDIAN MEDIANA AMOSTRAL É a mediana calculada para uma amostra particular. SAMPLE MEAN MÉDIA AMOSTRAL É a média calculada para uma amostra particular. SAMPLE STANDARD DEVIATION DESVIO PADRÃO AMOSTRAL É o desvio padrão calculado para uma amostra particular.SAMPLE AMOSTRA Qualquer subconjunto de elementos de uma população. . SAMPLE RANGE AMPLITUDE AMOSTRAL É a diferença entre o maior e o menor valor de uma amostra. Às vezes. conhecido como descrição do espaço ou espaço de eventos. SAMPLE SPACE ESPAÇO AMOSTRAL A série de pontos amostrais correspondentes a todas as amostras possíveis.

a amostragem é chamada de “com reposição”. depois das suas características serem registradas. a amostragem será “sem reposição”. SAMPLING FRACTION FRAÇÃO DE AMOSTRAGEM A proporção do número total de unidades amostrais na população. ou unidade de estágio mais elevado em que a amostragem aleatória simples com unidades múltipla. A expressão quase sempre está relacionada com um esquema de amostragem envolvendo seleção aleatória e muitas vezes se refere à distribuição da função de um número fixo n de variáveis independentes. estrato. é feita. amostrais quando de contagem com amostrada reposição. Caso contrário. REPOSIÇÃO .SAMPLING DISTRIBUTION DISTRIBUIÇÃO AMOSTRAL A distribuição de uma estatística ou série de estatísticas em todas as amostras possíveis que podem ser encontradas de acordo com um esquema de amostragem específico. SAMPLING WITH REPLACEMENT AMOSTRAGEM COM Quando uma unidade de amostragem é extraída de uma população finita e é retornada para aquela mesma população.

o desvio padrão em uma distribuição normal. SEASONALITY SAZONALIDADE Em análise de séries de tempo.θ )=∂ logp(X|θ )/∂ θ . a parte do movimento atribuída ao efeito das estações do ano. por exemplo.θ ). SCATTERPLOT GRÁFICO DE DISPERSÃO Gráfico de duas variáveis. que mostra a dispersão e associação existente entre elas. é definida como U(X. SCALE PARAMETER PARÂMETRO DE ESCALA Um parâmetro de uma distribuição de probabilidade que está relacionado funcionalmente com a escala da variável. . Neste caso. cada uma representada em um eixo. SCORE FUNCTION FUNÇÃO DE ESCORE A função de escore de X.SCALE MODEL MODELO DE ESCALA X tem um modelo de escala se uma função g e a quantidade σ existem de forma que a distribuição de X dado σ satisfaz f(x|θ )=σ -1g(x/σ ). σ é chamado de parâmetro de escala. denotada por U(X. sendo p(X| θ ) a distribuição de X.

SENSITIVITY SENSIBILIDADE Em ensaios clínicos. . SIMPLE HYPOTHESIS HIPÓTESE SIMPLES Hipótese estatística que assume um único valor para o parâmetro de estudo. SIMULATION METHODS MÉTODOS DE SIMULAÇÃO Coleção de técnicas que consistem na geração aleatória de amostras de distribuições de interesse. SKEWNESS SIMETRIA Um termo antigo para “simetria” em uma distribuição de freqüência. SINGULAR MATRIX MATRIZ SINGULAR Matriz que possui um determinante igual a zero. porém pode ser simulado para diversas condições em forma iterativa usando valores iniciais numéricos adequados. a medida daquela simetria. a proporção de positivos corretamente identificados pelo teste clínico. SIMULATION MODEL MODELO DE SIMULAÇÃO Modelo de um sistema dinâmico complicado para achar uma solução analítica explícita.

SPATIAL DEPENDENCE DEPENDÊNCIA ESPACIAL Condição que caracteriza a associação existente entre observações devido a causas espaciais. características temporais e espaciais de um fenômeno. . menores. SPACE-TIME ATRIBUTES CARACTERÍSTICAS ESPAÇOTEMPORAIS Valores observados ao longo do tempo e em diversos locais geográficos. SPATIAL PATTERNS PADRÕES ESPACIAIS Padrão de comportamento de uma variável no espaço. SNEDECOR F DISTRIBUTION DISTRIBUIÇÃO F DE SNEDECOR Um termo popular para a distribuição da razão de variâncias.SMOOTHING ALIZAMENTO O processo de remover flutuações em uma série ordenada para que o resultado seja “suave” no sentido em que as primeiras diferenças são regulares e diferenças de ordem mais elevadas. simultaneamente. SPACE-TIME MODEL MODELO ESPAÇO-TEMPORAL Modelo estatístico as que considera.

SPECIFICITY ESPECIFICIDADE Em ensaios clínicos. STATIONARY PROCESS PROCESSO ESTACIONÁRIO O processo estocástico estacionário multivariada {xi} se é a de estritamente distribuição xt(1)+h.xt(2)+h.. A transformação da raiz quadrada leva a mesma relação para a distribuição de Poisson como a transformação do arco seno para a transformação binomial. É igual à raiz quadrada positiva da variância. QUADRADA STANDARD DEVIATION DESVIO PADRÃO Medida de dispersão muito usada.... SQUARE ROOT TRANSFORMATION TRANSFORMAÇÃO DA RAIZ Uma transformação de variáveis que é usada para estabilizar a variância de dados amostrais obtidos de uma população Poisson. a proporção de negativos corretamente identificados pelo teste clínico. STANDARD NORMAL RANDOM VARIABLE VARIÁVEL ALEATÓRIA NORMAL PADRONIZADA Variável aleatória com distribuição Normal de média 0 e variância 1.xt(n)+h é independente de h .

..para todo conjunto finito de valores t(1)+h.t(n). amostrais..t(n)+h.. STATISTIC ESTATÍSTICA Um valor de resumo calculado a partir de uma amostra observada. de um mecanismo probabilístico que gera as observações.. se existem média e variância que não dependem de t. ou populações.t(1). O processo é chamado estacionário. STATISTICAL HYPOTHESIS HIPÓTESE ESTATÍSTICA Hipótese sobre os parâmetros ou a forma da distribuição de probabilidades de uma população. mas não necessariamente.. geralmente. para Isto uma ocorre equação de valores introduzindo-se as variáveis uma por vez ou começando com toda a série e depois os rejeitando um por vez.t2.. ou. de algum uma função como parâmetro um de estimador população. O critério para se aceitar ou rejeitar uma variável geralmente depende da extensão pela . em sentido amplo.. de forma geral. STEPWISE REGRESSION REGRESSÃO STEPWISE Um método de selecionar a melhor série de variáveis de regressoras regressão.

não depende de θ . . A distribuição de t contém. para todo i e j. x2. A é uma matriz simétrica se aij=aji. A. xn dado t. Um estimador t é considerado suficiente para um parâmetro θ se a distribuição de uma amostra x1.. SUFFICIENCY SUFICIÊNCIA Uma propriedade de um estimador definida por R. SYMMETRIC MATRIX MATRIZ SIMÉTRICA Seja uma matriz A com valores aij. Fisher (1921). .. SUFFICIENT STATISTIC ESTATÍSTICA SUFICIENTE Qualquer estatística que possui a propriedade de suficiência.qual ela afeta o coeficiente de correlação múltipla. então.. toda a informação da amostra relevante para a estimação de θ e o conhecimento de t e sua distribuição de amostragem é “suficiente” para dar tal informação. STUDENT T DISTRIBUTION DISTRIBUIÇÃO T DE STUDENT Distribuição da razão da média amostral proveniente de uma distribuição Normal e uma variável χ 2.

T TCHEBYCHEV’S INEQUALITY DESIGUALDADE DE TCHEBYCHEV Se g(x) é uma função não-negativa de uma variável x. a desigualdade de .

Pr{g(x)>k}≤ E[g(x)]/k. TEST STATISTIC ESTATÍSTICA DE TESTE Uma função de uma amostra de observações que oferece um critério para testes de uma hipótese estatística. . TRANSITION PROBABILITY PROBABILIDADE DE TRANSIÇÃO Na teoria de processos estocásticos. TIME SERIES SÉRIE TEMPORAL Uma série temporal é uma série de observações característica fenômeno ordenadas quantitativa individual ou de de uma um coletivo considerado em diferentes pontos de tempo. Embora não seja essencial. tempo sistema estabelecido em Ej mudará para algum designado posteriormente.Tchebychev (1874) estabelece que para cada k > 0. a probabilidade probabilidade Ek em de transição que é a um condicional. A qualidade essencial da série é a ordem de observações de acordo com a variável do tempo. é comum para esses pontos serem eqüidistantes no tempo.

Consiste aceitar uma hipótese falsa. em . TYPE II ERROR ERRO TIPO II Um termo alternativo para erro β ou Erro de segundo tipo.TYPE I ERROR ERRO TIPO I Um termo alternativo para erro α ou Erro de primeiro tipo. Consiste em rejeitar uma hipótese verdadeira.

.U UNBIASSED ESTIMATOR ESTIMADOR NÃO VICIADO Estimador cujo vício é igual a zero. UNIFORM DISTRIBUTION DISTRIBUIÇÃO UNIFORME Distribuição de probabilidades que fornece a mesma probabilidade de ocorrência a cada um dos possíveis valores da variável.

UNIFORM RANDOM VARIABLE VARIÁVEL ALEATÓRIA UNIFORME Variável aleatória. discreta ou contínua. que tem distribuição uniforme. V .

uma variável no sentido matemático. e a susceptibilidade com que muda de valor é chamada de variabilidade. VARIABLE VARIÁVEL Geralmente. qualquer quantidade que varia. VARIABILITY VARIABILIDADE Uma característica que pode assumir diversos valores numéricos é chamada de variável. Mais precisamente. .VAGUE PRIOR PRIORI VAGA Distribuição a priori que não fornece muita informação sobre o parâmetro de interesse. por exemplo.

uma quantidade que pode tomar qualquer uma de uma série específica de valores. desde que um indivíduo humano pode tomar um de dois valores. COVARIÂNCIA . VARIANCE VARIÂNCIA A variância (Fisher. VARIANCE-COVARIANCE MATRIX MATRIZ DE VARIÂNCIAPara um vetor de variáveis aleatórias. “sexo” é uma variável neste sentido. a matriz de variância-covariância é aquela que contém as variâncias das variáveis na diagonal principal e as covariâncias entre essas variáveis fora da diagonal principal. Por exemplo. É conveniente usar a mesma palavra para se referir a características não mensuráveis. 1918) é o segundo momento de uma distribuição de freqüência considerada em torno da média aritmética. o variograma é definido como: γ (h)=E[Y(x+h)-Y(x)]2/2. observável no local x do espaço. masculino ou feminino. sendo h uma distância entre dois locais quaisquer. VARIOGRAM VARIOGRAMA Para uma variável Y.

W .

WEIBULL DISTRIBUTION DISTRIBUIÇÃO DE WEIBULL Distribuição da forma f(x)=k(x-ε )k-1(v- ε )-kexp{-[(x-ε )/(v-ε )]k} com x. WILCOXON’S TEST TESTE DE WILCOXON Teste não paramétrico de comparação de médias. Está baseado nos signos das diferenças dos valores. WISHART DISTRIBUTION DISTRIBUIÇÃO DE WISHART A distribuição conjunta de variâncias e covariâncias em amostras de uma população Normal p-variada. . dada por Wishart em 1928.v>ε e k>1.

X .

Y .

Z .

Murray R. DOBSUM. Generalized Linear Models. Helio S.. London: Edward Arnold. 1978 MIGON.. USA: Willy International. Space-time Modeling of Non-Negative Variables with Mass Point at Zero. Luis G. London: Longman. 1994. A. T. Introducion to Probability: Theory and Satistical Inference. Dani. 1991. 2ed. MIGON. London: Chapman & Hall. & GARMERMAN. Interactive Spatial Data Analysis. Rio de Janeiro: 2001. São Paulo: McGraw – Hill do Brasil. O’HAGAN. & PEREIRA Basílio B. Kjell A. 1977. J. London: Arnold. Statistical Inference: An integrated approach. .BIBLIOGRAFIA ALTMAN. Practical Statistics for Medical Research. Probabilidade e Estatística.A.C. C. Douglas G.C. MC CULLAGH. 2ed. San Francisco: Holden – Day. Harold J. Peter J. VELARDE. Tradução de Alfredo Alves de Faria. 1996. 1999. 1991. P. 1974 SPIEGEL. Anthony. BAILY. BICKEL. & NELDER Fres. Inc.. Mathematical Statistics: Basic ideas and selected topics. London: Chapman & Hall. Volume 2B of Kendall’s Advanced Theory of Statistics. Hélio S. & GATRELL. Bayesian Inference. Tecnical Report # 141: DME – UFRJ. LARSON.

N. B. Modern Applied Statistics with S-PLUS. & RIPLEY. W.VENABLES. . 2nd edition. 1997. Springer.D.

Sign up to vote on this title
UsefulNot useful