Você está na página 1de 1

1 MACHINE LEARNING

1 Machine Learning
1.1 Classicador Naive Bayes
Alocar x∗ tal que
p
Y
g = arg max fXik (x∗ | θik )
i=1,...,n
k=1

O naive bayes faz uma forte suposição que as v.a's no vetor de características

x = (x1 , . . . , x7 )0 são independentes.

p >> n ou p'n→ alta dimensionalidade .

1.2 Análise de Componentes Principais


Consiste em obter combinações lineares das variáveis originais onde essas transfor-

mações tem o tipo mais fraco de independência estocástica, a correlação nula (indepen-
dência linear).

Sejam X1 , . . . , Xn uma a.a, então as componentes principais são

Y = AX,

onde At λA = Σ é a matriz de covariâncias e V ar[Yk ] = λk , k = 1, . . . , p, tal que λ1 ≥


λ7 ≥ · · · ≥ λp .

ˆ PCA não é estocasticamente independente, apenas não-correlacionadas.

ˆ PCA é independente se, somente se, X ∼ N ormalp (µ, Σ).

ˆ A variância das PCA são não crescentes, ou seja, V ar[Y1 ] ≥ V ar[Y2 ] ≥ · · · ≥


V ar[Yp ].
V ar[Yk ]
ˆ Pp × 100% é o percentual que a componente Yk representa da variabili-
j=1 V ar[Yj ]
dade total dos dados originais.

1.3 Análise de Componentes Independentes (ICA)


Sendo X os dados originais, então o ICA é S = mX .
No ICA a independência é estocástica

ANÁLISE DE SOBREVIVÊNCIA 1

Você também pode gostar