Você está na página 1de 28

BAB I

PENDAHULUAN

1.1 Latar Belakang


Pada hasil penelitian terkadang tidak sengaja kita jumpai data multikolinier
dimana variabel bebas saling berhubungan, sehingga menjadi masalah yang
cukup serius dalam melakukan analisis data penelitian. Apabila terdapat
Multikolinearitas diantara variabel bebas maka penaksiran parameter model
regresi dengan menggunakan metode kuadrat terkecil akan menghasilkan
penaksir yang tak bias. Pendeteksian multikolinearitas dapat dilakukan secara
informal salah satunya dengan koefisien korelasi linear antar variabel bebas
maupun dengan cara formal dengan faktor inflasi ragam. Analisis regresi
komponen utama digunakan untuk menghilangkan multikolinieritas dan semua
peubah bebas masuk dalam model. Metode ini mengatasi multikolinieritas
dengan dua tahapan, tahap pertama analisis komponen utama terhadap peubah-
peubah bebas Xi, dan tahap kedua analisis regresi terhadap komponen-
komponen utama dengan peubah respon Y.
1.2 Rumusan Masalah
1. Bagaimana cara mengidentifikasi data multikolinieritas ?
2. Bagaimana cara mengatasi data yang multikolinieritas ?
3. Bagaimana model regresi yang cocok untuk menangani
multikolinieritas pada data ?
1.3 Tujuan
1. Untuk mengetahui ciri-ciri data multikolinieritas
2. Untuk mengetahui asumsi-asumsi yang digunakan untuk
mengidentifikasi data yang multikolinieritas
3. Untuk mengetahui apakah analisis regresi komponen utama adalah
model yang cocok untuk menangani kasus multikolinearitas.

1
BAB II

KAJIAN PUSTAKA

2.1 Analisis Regresi Linier Berganda

Analisis regresi yang mengkaji hubungan antara satu variabel tak bebas
dengan beberapa variabel bebas, dinamakan analisis regresi berganda. Model pada
analisis regresi berganda adalah:

= nilai pengamatan ke-

= variabel bebas yang menentukan nilai pengamatan ke-

= konstanta regresi

= koefisien-koefisien regresi sebagian (parsial) untuk variabel


secara berturut-turut.

= faktor sisaan yang ke-

= banyaknya pengamatan

Draper and Smith (1992), menyatakan beberapa kriteria yang digunakan


untuk melihat tepat tidaknya model regresi yang diperoleh dengan melihat koefisien
determinasi berganda .

Koefisien determinasi merupakan pengukuran keberartian persamaan


regresi atau untuk mengukur kecocokan model data. Nilai dapat dinyatakan
dengan persen dan dicari dengan membandingkan jumlah kuadrat regresi

dengan jumlah kuadrat total dan didefinisikan sebagai


berikut:

2
Semakin besar nilai maka taksiran model regresi yang diperoleh semakin baik
dan sebaiknya jika nilai semakin kecil maka taksiran model regresi yang
diperoleh tidak baik.

Pada regresi berganda, variabel akan bergantung pada dua atau lebih
variabel bebas dengan kata lain variabel yang terjadi pada variabel tak bebas
dipengaruhi oleh lebih dari satu variabel bebas. Masalah penting dalam penerapan
analisis regresi berganda adalah pemilihan variabel-variabel bebas yang dapat
digunakan dalam model agar diperoleh persamaan regresi terbaik yang
mengandung sebagian atau seluruh variabel bebas.

2.2 Asumsi-asumsi dalam Regresi Linier Berganda

Asumsi yang harus dipenuhi dalam analisis regresi linier berganda yaitu:

Asumsi Kenormalan Sisaan


Asumsi Kenormalan Sisaan bertujuan untuk mengetahui apakah
sisaan mempunyai sebaran normal dengan rata-rata dan
keragaman . Pengujian kenormalan sisaan dapat dilakukan dengan
melihat plot antara nilai harapan kumulatif sisaan. Jika pola membentuk
garis lurus dengan sudut 45o maka dapat dikataan sisaan tersebut menyebar
mengikuti sebaran normal.
Selain itu juga dapat dilakukan dengan uji kenormalan
AndersonDarling, jika nilai maka nilai sisaan mengikuti pola
sebaran normal.

Asumsi Kehomogenan Sisaan


Asumsi Kehomogenan Sisaan dilakukan dengan tujuan untuk
mengetahui apakah sisa antara variabel terikat dengan variabel bebas
mempunyai keragaman yang homogen, atau tidak menunjukan
kecenderungan tertentu. Asumsi kehomogenan sisaan dapat dilakukan
dengan melihat plot antara nilai sisaan baku dengan nilai dugaan. Jika plot
menunjukan pola sebaran data diantara selang -2 sampai 2 secara merata
maka sisa dikatakan berada dalam sebaran, sehingga sisanya mempunyai
keragaman yang tetap.

3
Asumsi Kebebasan Sisaan
Asumsi Kebebasan Sisaan bertujuan untuk mengetahui apakah
terdapat ketergantungan diantara sisa. Uji formal untuk uji kebebasan nilai
sisaan dengan menggunakan uji DurbinWatson, akan tetapi dengan
menggunakan uji grafik dapat dilakukan dengan membuat plot antara nilai
sisaan denga periode jika polanya acak maka dapat dikatakan sisaan
tersebut bebas satu sama lainnya atau dapat juga dengan membuat plot
autokorelasi antar sisaan atau saling bebas. Selain itu, dapat juga dengan
melihat lag pertama pada autokorelasi sisaan yakni jika lag pertama
signifikan maka nilai sisaan tersebut bebas.

2.3 Pengujian Koefisien Regresi


2.3.1 Pengujian Koefisien Regresi secara Serentak
Menurut Drapper dan Smith (1992:97), hipotesis yang melandasi pengujian
koefisien regresi adalah:

untuk paling sedikit satu


Penyelidikan koefisien regresi dapat dipermudahkan dengan menggunakan
tabel analisis variansi seperti pada tabel berikut :
Sumber Derajat Bebas Jumlah Kuadrat Kuadrat Tengah
Variansi
Regresi (Reg) k JKR/k KTR/KTS
Galat/Sisa(S) n-k-1 JKT JKR

Total (T) n-1

Keterangan : JKR = Jumlah kuadrat regresi JKT


= Jumlah kuadrat total
JKS = Jumlah kuadrat sisa
KTR = Kuadrat tengah regresi
KTS = Kuadrat tengah sisa

4
Statistik uji yang digunakan adalah uji F. Uji F pada dasarnya menunjukan
apakah semua variabel bebas yang dimasukan dalam model mempunyai pengaruh
secara bersama-sama terhadap variabel tak bebas.
Jumlah kuadrat regresi dapat digunakan sebagai petunjuk apakah model
sudah menggambarkan keadaan sesungguhnya atau sebaliknya. Uji F didefinisikan
sebagai berikut:

Dengan : db pembilang = (banyaknya variabel bebas dalam model) db


penyebut = n-k-1
Adapun kriteria pengujinya sebagai berikut :
Jika maka hipotesis nol ditolak artinya model
mempunyai hubungan linier dengan kata lain ada pengaruh yang signifikan
antara variabel bebas dengan variabel terikatnya.
Jika maka hipotesis nol diterima artinya model tidak
mempunyai hubungan linier, dengan kata lain tidak ada pengaruh yang
signifikan antara variabel bebas dengan variabel terikatnya.

2.3.2 Pengujian Koefisien Regresi secara Individual


a. Pengujian parameter
Pengujian parameter untuk dengan menggunakan uji t, yaitu :

dan

Dimana
dii = entri dari baris ke-i dan kolom ke-j matriks ei
=
dengan hipotesisnya adalah sebagai berikut:

Adapun kriteria pengujiannya adalah sebagai berikut :


Jika maka ditolak.
Jika maka diterima

5
b. Pengujian Parameter
Pengujian ini bertujuan untuk menentukan signifikasi suatu variabel
bebas dalam model. Dengan kata lain, perlu tidaknya variabel tersebut
berada dalam model. Hipotesis untuk pengujian ini adalah:
i = 1,2,...,k

Statistik uji yang dilakukan adalah dengan menggunakan uji t yaitu:

Dimana : penduga bagi


= galat baku dari
Adapun kriteria pengujiannya adalah sebagai berikut :
Jika maka ditolak, ini berarti bahwa variabel
tersebut masuk dalam model.
Jika maka diterima

2.4 Multikolinearitas
Multikolinearitas adalah kejadian yang muncul di dalam model regresi jika
satu variabel atau variabel bebas berkorelasi sangat tinggi sehingga sulit untuk
memisahkan pengaruh mesing-masing kedalam variabel tak bebas. metode yang
dapat digunakan untuk melihat ada tidaknya multikolinearitas dalam suatu
persamaan regresi, yaitu :
a. Koefisien Korelasi antar Variabel Bebas
Cara yang paling mudah dan sederhana unuk mengetahui ada tidaknya
korelasi anatar variabel bebas dengan melihat korelasi antara dua variabel
bebas. Kolinearitas terjadi jika r dekat dengan , dan tidak terjadi jika r =
0.

b. Dengan melihat Elemen Matriks Korelasi


Multikolinearitas dapat dilihat pada element matriks korelasi. Jika
korelasi antara variabel bebas lebih besar dari pada korelasi antara variabel
bebas dan variabel terikatnya, maka terajadi kasus multikolinearitas.
c. VIF (Variance Inflation Factor)

6
Metode lain untuk mengetahui multikolinearitas adalah menghitung
besarnya multikolinearitas tiap variabel bebas dengan faktor keragaman
inflasi (VIF). VIF didefinisikan sebagai berikut:

adalah koefisien determinasi berganda dari variabel dengn


semua variabel bebas yang lain. Semakin besar nilai VIF maka nilai
multikolinearitas lebih sempurna, hal ini disebabkan jika VIF besar maka
makin kecil sehingga nilai besar. Jika VIF 10 maka korelasi
diantara variabel bebasnya sangat tinggi, dengan kata lain terjadi
multikolinearitas.
Perbandingan dan dapat juga digunakan sebagai ukuran
multikolinearitas. Nilai hasil perbandingan ini disebut bilangan kondisi K,

dalam persamaan dinyatakan .


Multikolinearitas dianggap lemah jika nilai berada dalam
dianggap sedang hingga kuat jika nilai K terletak dalam selang
, dan menjadi sangat kuat jika (Sembiring,
1995:285). Permasalahan multikolinearitas harus diatasi, salah satunya
dengan analisis komponen utama (principle component analysis).
2.5 Analisis Komponen Utama
Penerapan metode ini dilakukan untuk mendapatkan variabel baru yang
saling bebas dan merupakan kombinasi linier dari variabel asalnya. Pada analisis
komponen utama, vektor variabel penjelas asal yaitu
ditransformasikan menjadi vektor variabel baru yaitu dengan
. Dalam bentuk persamaan dinyatakan sebagai:

dimana :
= vektor ciri
=1
=
Sedemikian sehingga variabel-variabel saling bebas satu sama lain
dan variabel baru menjelaskan sebesar mungkin proporsi keragaman dari vektor
variabel penjelas asal (Suryanto, 1998:201)

7
2.6 Cara Menentukan Komponen Utama
Ada dua cara menentukan komponen utama yaitu:
1. Menggunakan Matriks Ragam Peragam (Varian Covarian)

Jika didefinisikan sebagai matrik konstan berukuran n k, maka


komponen utama didefinisikan sebagai kombinasi dari k variabel
penjelas asal yang dinyatakan dalam bentuk matrik berikut:

Dengan : = matrik kolom variabel asal


= matrik vektor ciri atau
dalam bentuk kombinasi linier adalah:

=
=

=
disebut komponen utama dari . Jika matrik ragam
peragam dari variabel asal dilambangkan dengan , maka didapatkan
ragam dan peragam dari masing-masing komponen utama yaitu:

8
=

=
1,2,...,k

Misal S
matrik
ragam
peragam atau
varian kovarian. Menurut
Suryanto(1998), S didefinisikan sebagai berikut:

Akar karekteristik dari S matrik adalah sebagai berikut:

Sedangkan vektor karakteristik adalah sebagai berikut:

Komponen utama ke- yang merupakan kombinasi linier terbobot


variabel asal bertujuan untuk memaksimalkan dan tidak
berkorelasi dengan komponen utama yang lain, melainkan bersifat
ortogonal dengan komponen utama yang lain. Oleh karena itu, harus

memenuhi batasan , ; (Morrison, 1987)


Keragaman yang dapat diterangkan oleh komponen utama ke- terhadap

keragaman total adalah : Sedangkan secara

kumulatif, keragaman total yang dijelaskan oleh m komponen utama:

dimana adalah banyaknya komponen utama


yang digunakan.
Untuk menafsirkan hasil komponen utama yang dipilih dengan
melihat beban-beban komponen, yaitu dengan memilih komponen utama

9
yang sudah mencakup semua variabel. Beban untuk komponen utama
adalah koefisien korelasi momen hasil kali antara dan . Jika beban
ini dinyatakan dengan tanda , maka

(Suryanto,1998:208).
2. Menggunakan Matrik Korelasi
Bila komponen utama dihasilkan dari matrik ragam-ragam maka
komposisi dari komponen utama tergantung pada satuan pengukuran
yang tidak sama yaitu dengan membentuk komponen utama dari matrik
korelasi.
Bila k variabel asal diukur dengan satuan pengukur berbeda maka
variabel tersebut ditransformasikan ke dalam skor baku. Pembakuan
variabel asal X ke dalam skor Z dapat diakukan dengan menggunakan

rumus:

Dalam bentuk matrik: dengan adalah


matrik diagonal simpangan baku, sedangkan elemen yang lain adalah nol

dan dalam bentuk dapat ditulis sebagai berikut:

Hubungan antara matrik ragam-peragam dengan matrik korelasi R


dapat dinyatakan dengan:

Dengan demikian komponen utama Z dapat ditentukan dari vektor ciri matrik
korelasi variabel asal R sehingga komponen utama ke-j adalah:

10
2.6 Skor Komponen Utama

Setelah komponen utama diperoleh maka menghitung skor komponen


utama dari setiap individu yang akan digunakan atau dengan

matrik data: maka skor komponen dari individu ke-i pada


komponen utama yang dihasilkan dari matriks ragam-peragam adalah:

Dimana : = skor komponen ke-j dari individu ke-i

= vektor ciri komponen utama ke-j

= vektor individu ke-i

= vektor nilai rata-rata variabel asal

Jika komponen utama dihasilkan dari matrik korelasi R, maka matrik data
individu digantikan dengan matrik data skor baku yaitu:

2.7 Analisis Regresi Komponen Utama

Regresi komponen utama merupakan tekhnik analisis regresi yang


dikombinasikan dengan tekhnik analisis komponen utama yakni menjadikan
analisis komponen utama sebagai tahap analisis untuk mendapatkan hasil akhir
dalam analisis regresi.

11
Prinsip utama dari teknik regresi komponen utama adalah meregresikan skor
komponen utama yang terpilih dengan variabel respon, sehingga dihasilkan model
regresi komponen utama dinyatakan dalam persamaan berikut:

.............(1)

Dimana :

= variabel penjelas komponen utama yang merupakan kombinasi


linier dari semua variabel penjelas asal X1,X2,...,Xk

= konstanta

= koefisien regresi komponen utama sebagian

= faktor galat

Setiap komponen utama dalam persamaan (1) merupakan kombinasi linier dari
semua variabel penjelas X yang dinyatakan dinyatakan dalam hubungan:

= =
.........
= .................(2)
Apabila persamaan (2) disubstitusikan ke dalam persamaan (1) diperoleh
persamaan baku:
.................................(3)
dengan : =

= =
........................................................

12
= ..................................(4)
Ragam dari koefisien regresi komponen utama untuk persamaan dapat
ditentukan sebagai berikut:

dengan adalah ragam galat dari model regresi asli atau dapat diduga dari ragam
galat untuk model regresi komponen utama. Untuk melihat ragam dari koefisien
regresi c dalam persamaan tersebut adalah dengan memanfaatkan hubungan antara
koefisien regresi dari variabel asal Xi dengan koefisien ciri dari setiap komponen
utama, yaitu:
( )

Untuk mengetahui signifikasi dari masing-masing variabel bebas terhadap

model regresi digunakan uji statistik yaitu:


Hipotesis dalam pengujian ini adalah:
: =0
: 0

Jika maka ditolak, ini berarti koefisien regresi bersifat

sangat nyata secara statistik. Sebaliknya jika , maka menerima


.

13
BAB III
PEMBAHASAN DAN ANALISA

3.1 Pembahasan
Masalah yang akan dibahas yaitu mengenai faktor-faktor yang
mempengaruhi jumlah tekanan darah tinggi. Data terdiri dari satu variabel terikat
Y dan tujuh variabel bebas X1, X2,X3,X4,X5,X6, dan X7.
Berikut data yang digunakan dalam analisis regresi komponen utama yang
terdiri dari Jumlah tekanan darah, usia,berat badan, kadar glukosa, kadar kolesterol
total, kadar kolesterol HDL, kadar kolesterol LDL, dan kadar trigliserida.
Variabel bebas : X1 = Usia
X2 = Berat badan (kg)
X3 = Kadar Glukosa (mg/dl)
X4 = Kadar Kolesterol Total (mg/dl)
X5 = Kadar Kolesterol HDL (mg/dl)
X6 = Kadar Kolesterol LDL (mg/dl)
X7 = Kadar Trigliserida (mg/dl)
Variabel Terikat: Y = Jumlah Tekanan Darah Tinggi (mmHg)
Tabel. 1.
Y X1 X2 X3 X4 X5 X6 X7
160 46 75 278 180 35 198 125
150 51 68 254 210 56 211 177
170 58 57 275 165 71 121 134
165 49 55 202 169 36 179 118
155 60 59 107 150 45 210 337
155 55 60 118 216 50 134 120
175 57 75 184 240 62 200 107
150 45 60 190 185 30 190 183
160 47 72 222 200 45 189 153
175 62 79 295 90 65 200 160

14
160 46 81 193 205 72 140 113
145 52 60 122 108 80 175 168
165 47 59 54 222 36 181 154
200 66 73 239 215 40 190 160
160 57 66 180 180 35 180 335
180 49 64 211 210 55 124 400
190 61 66 130 170 40 150 119
165 54 62 142 106 35 135 215
205 62 70 120 217 50 170 405
175 58 68 190 191 44 190 168
185 60 65 111 175 32 200 164
185 52 64 89 215 27 187 106
175 57 75 184 109 62 200 184
150 45 60 264 185 30 190 183
160 47 72 222 200 45 189 153
175 62 79 295 90 65 200 160
160 46 81 193 205 72 140 113
145 52 60 122 108 80 175 168
165 52 59 54 222 36 181 154
200 66 73 239 215 40 190 160
160 57 66 94 180 35 180 335
180 58 71 211 210 55 124 400
190 61 66 166 170 40 150 119
165 54 62 174 106 35 135 123
205 62 70 264 217 50 170 405

Sebelum mencari model untuk regresi linear berganda, terlebih dahulu kita
harus mengetahui hubungan penyakit darah tinggi dengan faktor-faktor yang
mempengaruhi, sehingga harus diketahui persamaan regresinya. Maka analisis
regresi berganda adalah tahap awal yang dilakukan dalam memperoleh model
regresi linier berganda.

Regression Analysis: Y versus X1; X2; X3; X4; X5; X6; X7

15
The regression equation is
Y = 40,8 + 1,90 X1 + 0,631 X2 + 0,0106 X3 + 0,107 X4 - 0,298 X5 - 0,137
X6 + 0,0014 X7

Predictor Coef SE Coef T P Constant 40,76 23,47


1,74 0,094 X1 1,9027 0,2850 6,68 0,000 X2 0,6311
0,2941 2,15 0,041 X3 0,01056 0,02871 0,37 0,716 X4
0,10666 0,04287 2,49 0,019 X5 -0,2978 0,1303 -2,28 0,030
X6 -0,13670 0,06630 -2,06 0,049 X7 0,00135 0,01849
0,07 0,942

S = 9,70261 R-Sq = 73,4% R-Sq(adj) = 66,5%

Analysis of Variance

Source DF SS MS F P Regression 7 7005,3


1000,8 10,63 0,000 Residual Error 27 2541,8 94,1 Total 34
9547,1

Source DF Seq SS X1 1 4738,4 X2 1 329,5 X3 1 8,2


X4 1 1236,3 X5 1 282,9 X6 1 409,6 X7 1 0,5

Unusual Observations

Obs X1 Y Fit SE Fit Residual St Resid


6 55,0 155,00 174,52 4,32 -19,52 -2,25R

R denotes an observation with a large standardized residual.

Dari hasil minitab di atas dapat diketahui jika persamaan regresinya adalah
Y = 40,8 + 1,90 X1 + 0,631 X2 + 0,0106 X3 + 0,107 X4 - 0,298 X5 - 0,137 X6 +
0,0014 X7 dengan R-Sq = 73,4% R-Sq(adj) = 66,5%
Setelah persamaan regresi linier berganda diketahui, maka dilakukan
pengujian asumsi, yaitu:
Uji kenormalan nilai sisaan

16
Dari grafik normal plot residual terlihat bahwa grafik membentuk garis
lurus dengan sudut 45o , dengan menggunakan uji Anderson-Darling nilai P-value
0,014 itu berarti P-value < 0,05 sehingga menyebabkan H0 ditolak dan menunjukan
bahwa data tidak berdistribusi normal, dengan kata lain asumsi ini tidak dipenuhi.
Uji kehomogenan nilai sisaan

17
Pada Fitted Line Plot di atas antara nilai sisaan baku dengan nilai dugaan,
terlihat plot menyebar dari -2 sampai 2, sehingga asumsi kehomogenan nilai sisaan
terpenuhi.
Uji kebebasan nilai sisaan

Jika dilihat dari grafik autokorelasi, terlihat bahwa lag pertama signifikan
sehingga dapat disimpulkan bahwa nilai sisaannya bersifat acak. Dengan demikian
asumsi nilai sisaan terpenuhi.
Selanjutnya pengujuan koefisien regresi yang dapat dilihat pada tabel
berikut:
Tabel 2. Pngujian Koefisien Regresi secara Serentak
Sumber Derajat Bebas Jumlah Kuadrat Fhitung
Variasi (db) Kuadrat (JK) Tengah (KT)

Regresi 7 7005,3 1000,8 10,63

Galat 27 2541,8 94,1


Total 34 9547,1

18
Tabel 3.Pengujian Koefisien Regresi secara Individual
Variabel Bebas Koefisien Simpangan Baku Thitung
X1 1,9027 0,2850 6,68
X2 0,6311 0,2941 2,15
X3 0,01056 0,02871 0,37
X4 0,10666 0,04287 2,49
X5 -0,2978 0,1303 -2,28
X6 -0,13670 0,06630 -2,06
X7 0,00135 0,01849 0,07
Selanjutnya Identifikasi Multikolinieritas dapat dilihat dari analisis korelasi
antara variabel bebas X1, X2,X3,X4,X5,X6, dan X7 dengan variabel tak bebas Y, hasil
uji data dapat dilihat sebagai berikut:

Correlations: Y; X1; X2; X3; X4; X5; X6; X7


Y X1 X2 X3 X4 X5 X6 X1 0,704 0,000

X2 0,303 0,171 0,076 0,326

X3 0,111 0,067 0,484 0,526 0,701 0,003

X4 0,269 -0,142 0,054 -0,116 0,118 0,415 0,757 0,508

X5 -0,178* 0,032 0,344 0,232 -0,284 0,307 0,857 0,043


0,179 0,098

X6 -0,075* 0,079 0,158 0,079 -0,040 -0,199


0,670 0,651 0,364 0,653 0,820 0,253

X7 0,247* 0,255 -0,055 -0,032 0,128 -0,038 -0,123


0,153 0,139 0,752 0,856 0,465 0,830 0,481

Ket : * Variabel signifikan pada = 0,01

Dari matriks korelasi dapat diketahui variabel yang mempunyai nilai Pvalue
kurang dari = 0,05 adalah dan terjadi kasus multikolinier dapat
dilihat dengan membandingkan koefisien korelasi antara variabel bebasnya dengan
koefisien korelasi antara X5,X6, dan X7 dengan Y
Pada hasil uji di atas terlihat bahwa koefisien korelasi
lebih besar dari . Koefisien korelasi lebih besar dari dan

19
koefisien korelasi lebih besar dari . Sehingga dapat disimpulkan adanya
kasus multikolinearitas antar variabel bebas. Adanya kasus tersebut dapat di atasi
dengan analisis regresi komponen utama.
Langkah pertama pada analisis regresi komponen utama adalah
menstranformasikan variabel-variabel bebas ke dalam variabel baku Z dimana
hasilnya dapat dilihat pada tabel berikut:
Tabel 4. Tabel Variabel Baku Z
Z1 Z2 Z3 Z4 Z5 Z6 Z7
-1,36887 1,07632 1,41981 0,04225 -0,87 0,90389 -0,71483
-0,57827 0,11039 1,06294 0,73549 0,5171 1,3866 -0,17343
0,52857 -1,4075 1,3752 -0,30437 1,50788 -1,95525 -0,62113
-0,89451 -1,68348 0,28974 -0,21193 -0,80395 0,19839 -0,78772
0,84482 -1,13152 -1,12285 -0,65098 -0,20948 1,34947 1,49244
0,05421 -0,99353 -0,95928 0,87414 0,12078 -1,47253 -0,76689
0,37045 1,07632 0,02209 1,42873 0,91341 0,97815 -0,90224
-1,52699 -0,99353 0,11131 0,15779 -1,20026 0,60684 -0,11096
-1,21075 0,66235 0,58713 0,50441 -0,20948 0,56971 -0,42331
1,16106 1,62828 1,67259 -2,03746 1,11157 0,97815 -0,35043
-1,36887 1,90426 0,15592 0,61995 1,57393 -1,24974 -0,83977
-0,42015 -0,99353 -0,89981 -1,62152 2,10235 0,04986 -0,26713
-1,21075 -1,13152 -1,91092 1,01279 -0,80395 0,27265 -0,4129
1,79354 0,80034 0,8399 0,85103 -0,53974 0,60684 -0,35043
0,37045 -0,16559 -0,03739 0,04225 -0,87 0,23552 1,47161
-0,89451 -0,44157 0,42356 0,73549 0,45104 -1,84385 2,14837
1,00294 -0,16559 -0,78085 -0,18883 -0,53974 -0,87843 -0,7773
-0,10391 -0,71755 -0,60242 -1,66774 -0,87 -1,4354 0,22221
1,16106 0,38637 -0,92955 0,89725 0,12078 -0,1358 2,20043
0,52857 0,11039 0,11131 0,29644 -0,27553 0,60684 -0,26713
0,84482 -0,30358 -1,06337 -0,07329 -1,06816 0,97815 -0,30878
-0,42015 -0,44157 -1,39049 0,85103 -1,39842 0,49544 -0,91266
0,37045 1,07632 0,02209 -1,59841 0,91341 0,97815 -0,10055
-1,52699 -0,99353 1,21164 0,15779 -1,20026 0,60684 -0,11096
-1,21075 0,66235 0,58713 0,50441 -0,20948 0,56971 -0,42331
1,16106 1,62828 1,67259 -2,03746 1,11157 0,97815 -0,35043
-1,36887 1,90426 0,15592 0,61995 1,57393 -1,24974 -0,83977
-0,42015 -0,99353 -0,89981 -1,62152 2,10235 0,04986 -0,26713
-0,42015 -1,13152 -1,91092 1,01279 -0,80395 0,27265 -0,4129

20
1,79354 0,80034 0,8399 0,85103 -0,53974 0,60684 -0,35043
0,37045 -0,16559 -1,31615 0,04225 -0,87 0,23552 1,47161
0,52857 0,52436 0,42356 0,73549 0,45104 -1,84385 2,14837
1,00294 -0,16559 -0,24556 -0,18883 -0,53974 -0,87843 -0,7773
-0,10391 -0,71755 -0,1266 -1,66774 -0,87 -1,4354 -0,73566
1,16106 0,38637 1,21164 0,89725 0,12078 -0,1358 2,20043

Principal Component Analysis: Z1; Z2; Z3; Z4; Z5; Z6; Z7

Eigenanalysis of the Correlation Matrix

Eigenvalue 1,8152 1,2605 1,2229 1,0819 0,6634 0,6059 0,3502 Proportion


0,259 0,180 0,175 0,155 0,095 0,087 0,050 Cumulative 0,259
0,439 0,614 0,769 0,863 0,950 1,000

Variable PC1 PC2 PC3 PC4 PC5 PC6 PC7 Z1


0,219 -0,628 -0,044 0,410 -0,415 -0,405 0,227 Z2 0,581 -
0,056 -0,268 -0,293 -0,290 0,070 -0,643 Z3 0,549 0,023 -
0,165 -0,199 0,619 -0,369 0,334 Z4 -0,261 -0,175 -0,369 -
0,714 -0,311 -0,011 0,398 Z5 0,482 0,110 0,489 -0,092 -
0,283 0,481 0,444 Z6 0,093 0,076 -0,711 0,412 0,042
0,510 0,222 Z7 -0,069 -0,744 0,139 -0,134 0,426 0,451 -
0,138

Dari hasil uji tersebut terlihat bahwa komponen PC1, PC2, PC3, dan PC4
yang memiliki eigenvalue lebih dari 1 yaitu 1,815, 1,2605, 1,2229, 1,0819.
Komponen PC1 ini dapat menjelaskan 25.9% keragaman data, komponen PC2
dapat menjelaskan 18% keragaman data, komponen PC3 dapat menjelaskan 17,5%
data, dan PC4 dapat menjelaskan 15.5% data.Sehingga nilai untuk komponen dapat
dihitung dengan melihat nilai koefisien untuk masing-masing variabel sebagai
berikut:

Selanjutnya menghitung skor komponen utama ,

Tabel 5. Vektor Ciri


0,21863 -0,62807 -0,04449 0,410372 -0,41453 -0,40482 0,22722

21
0,580617 -0,05614 -0,26792 -0,29297 -0,29024 0,0696 -0,64268
0,549086 0,022873 -0,16507 -0,19889 0,619236 -0,36908 0,333914
-0,26101 -0,17478 -0,36851 -0,71428 -0,31115 -0,01139 0,397978
0,481684 0,110011 0,488637 -0,09215 -0,283 0,481228 0,44379
0,092857 0,076237 -0,71077 0,411746 0,041515 0,509615 0,222277
-0,06945 -0,7439 0,138701 -0,13409 0,426431 0,451257 -0,13817

Tabel 6. Skor Komponen Utama


K1 K2 K3 K4 K5 K6 K7
0,808733 1,32938 -1,64412 -0,64144 1,100001 -0,17605 -0,59827
0,719223 0,544375 -1,20728 -0,45988 0,474296 0,718303 1,006954
0,720789 0,310565 2,279122 -0,28758 0,362913 -1,36712 1,683136
-1,27274 1,212656 -0,12201 0,481268 1,004626 -0,50082 0,687244
-0,99815 -1,40939 -0,16371 1,741311 0,237189 1,26146 0,285935
-1,34519 0,318521 1,099267 -0,63488 -1,02245 -0,78536 0,510664
0,938603 0,303942 -1,20904 -0,74865 -1,49946 0,431417 0,715866
-1,40486 0,986563 -0,77562 -0,09506 1,258728 0,187716 0,009079
0,291991 0,983813 -0,9724 -0,85733 0,418691 0,312298 -0,21183
3,300025 0,031267 -0,21386 1,4694 0,292392 -0,07555 -0,27587
1,430582 1,350641 0,8374 -2,14047 -0,93703 0,36366 -0,69934
0,296287 1,016282 1,985742 1,318457 -0,29694 1,368085 0,578259
-2,56855 0,842734 -0,34468 -0,267 -0,60537 0,670881 -0,02205
0,916567 -1,05336 -1,49013 0,073211 -0,69196 -1,09867 0,456083
-0,54611 -1,4041 -0,36992 0,157602 0,74173 0,217257 -0,34215
-0,5145 -1,22139 1,646072 -1,93616 1,244334 0,413545 0,008165
-0,54391 -0,15359 0,451036 0,542551 -1,00764 -1,18535 -0,32897
-0,90261 0,012803 1,536824 0,937982 0,678598 -0,81644 -1,16319
-0,37366 -2,56297 0,128369 -0,45485 -0,54971 0,871607 -0,21842
0,105584 -0,17277 -0,78371 0,261762 -0,2852 -0,19464 0,253818
-0,95856 -0,33831 -1,01372 1,242061 -0,68653 -0,12471 -0,21113
-1,89807 0,670985 -1,10914 0,08087 -0,79638 -0,18945 -0,32167
1,673031 0,236637 0,017677 1,30608 -0,2157 0,827661 -0,59964
-0,80069 1,011731 -0,95725 -0,31391 1,940092 -0,2184 0,376494
0,291991 0,983813 -0,9724 -0,85733 0,418691 0,312298 -0,21183
3,300025 0,031267 -0,21386 1,4694 0,292392 -0,07555 -0,27587
1,430582 1,350641 0,8374 -2,14047 -0,93703 0,36366 -0,69934
0,296287 1,016282 1,985742 1,318457 -0,29694 1,368085 0,578259
-2,3957 0,346182 -0,37985 0,057441 -0,9331 0,350827 0,157594

22
0,916567 -1,05336 -1,49013 0,073211 -0,69196 -1,09867 0,456083
-1,24826 -1,43335 -0,15883 0,411938 -0,05012 0,689228 -0,76915
0,357463 -2,1694 1,323976 -1,63515 0,374073 -0,09532 -0,28927
-0,24999 -0,14135 0,362677 0,436085 -0,67617 -1,38292 -0,15023
-0,57482 0,736248 1,325424 0,971789 0,564777 -1,4243 -0,87196
0,802036 -2,51399 -0,22507 -0,88072 0,776189 0,081327 0,496558

sehingga diperoleh persamaan regresi :


Y = 170 + 1,95 K1 - 9,48 K2 - 3,15 K3 - 0,96 K4 - 6,13 K5 - 8,85 K6 - 0,97 K7
Dari hasil minitab sebagai berikut:
Regression Analysis: Y versus K1; K2; K3; K4; K5; K6; K7

The regression equation is


Y = 170 + 1,95 K1 - 9,48 K2 - 3,15 K3 - 0,96 K4 - 6,13 K5 - 8,85 K6 -
0,97 K7

Predictor Coef SE Coef T P VIF Constant


170,286 1,640 103,83 0,000 K1 1,949 1,235
1,58 0,126 1,000 K2 -9,478 1,482 -6,40
0,000 1,000 K3 -3,147 1,505 -2,09 0,046
1,000 K4 -0,958 1,600 -0,60 0,554 1,000 K5
-6,134 2,043 -3,00 0,006 1,000 K6 -8,855
2,138 -4,14 0,000 1,000 K7 -0,968 2,812 -
0,34 0,733 1,000

S = 9,70259 R-Sq = 73,4% R-Sq(adj) = 66,5%

Analysis of Variance

Source DF SS MS F P Regression 7 7005,4


1000,8 10,63 0,000 Residual Error 27 2541,8 94,1 Total 34
9547,1

Source DF Seq SS K1 1 234,6 K2 1 3850,4 K3 1 411,8


K4 1 33,7 K5 1 848,5 K6 1 1615,3 K7 1 11,2

Unusual Observations

Obs K1 Y Fit SE Fit Residual St Resid 6 -1,35 155,00


174,52 4,32 -19,52 -2,25R

Sehingga didapat juga hasil uji regresi secara serentak sebagai berikut:

23
Tabel 7. Pengujian Koefisien Regresi Komponen Utama secara Serentak
Sumber Derajat Bebas Jumlah Kuadrat Fhitung
Variasi (db) Kuadrat (JK) Tengah (KT)

Regresi 7 7005,4 1000,8 10,63

Galat 27 2541,8 94,1


Total 34 9547,1

Langkah Selanjutnya yaitu menunjukan jumlah komponen utama yang


digunakan dalam membentuk model, diketahui pada tabel akar ciri yang lebih besar
dari 1 yaitu : 1, 2, 3, 4. maka komponen utama yang terpilih pada data adalah
K1, K2, K3, dan K4. Komponen Utama yang terbentuk merupakan kombinasi linier
terbobot dari variabel bebas yang dibakukan dan dapat ditulis dengan:
K1 = - 0,000000 + 0,219 Z1 + 0,581 Z2 + 0,549 Z3 - 0,261 Z4 + 0,482 Z5
+ 0,0929 Z6 - 0,0694 Z7
K2 = - 0,000001 - 0,628 Z1 - 0,0561 Z2 + 0,0229 Z3 - 0,175 Z4 + 0,110 Z5
+ 0,0762 Z6 - 0,744 Z7
K3 = - 0,000002 - 0,0445 Z1 - 0,268 Z2 - 0,165 Z3 - 0,369 Z4 + 0,489 Z5
- 0,711 Z6 + 0,139 Z7
K4 = - 0,000002 + 0,410 Z1 - 0,293 Z2 - 0,199 Z3 - 0,714 Z4 - 0,0922 Z5
+ 0,412 Z6 - 0,134 Z7
Selanjutnya yaitu meregresikan komponen utama yang terpilih dengan variabel Y
dan menghasilkan persamaan regresi komponen utama: Y = 170 + 1,95 K1 - 9,48
K2 - 3,15 K3 - 0,96 K4 dengan S = 12,9315 R-Sq = 78,7% R-Sq(adj) = 76,4%
Dengan substitusi K1, K2, K3, dan K4 dalam persamaan regresi di atas , maka
diperoleh persamaan regresi :
Y = 170 - 1,61 Z1 + 6,29 Z2 - 10,9 Z3 + 4,40 Z4 + 4,20 Z5 - 2,37 Z6 - 1,19 Z7
Karena persamaan regresi tersebut masih dalam bentuk data yang dibakukan,
maka persamaan harus diubah kembali menjadi persamaan dengan variabel asal,
sehingga didapat persamaan regresi : Y = 84,97767 + 0,7175X1 + 0,3223X2 +
0,02367X3+0,07314X4+0,1276X5+0,0019382X6 +0,058367X7
Tabel 8. Pengujian Koefisien Regresi Komponen Utama secara Individual
Variabel Koefisien Varians Thitung

24
X1 0,717523 0,008872 7,62
X2 0,322369 0,013758 2,75
X3 0,023671 0,019667 0,17
X4 0,073143 0,009886 0,74
X5 0,12768 0,015662 1,02
X6 0,019382 0,010454 0,19
X7 0,058367 0,008411 0,64
Uji koefisien regresi secara Individual (uji T) dengan hipotesis sebagai berikut:

: j 0

: j 0

Ci VarC KTS q 2

Thitung i ijj

VarCi JKT j 1

Tabel 9. Nilai Ragam dan Thitung

0,008872 7,6178
0,013758 2,7485
0,019667 0,1688
0,009886 0,7356
0,015662 1,0202
0,010454 0,1896
0,008411 0,6364
Nilai -1,28566 dengan derajat bebas (34), karena seluruh
koefisien -1,28566 maka tolak sehingga dapat
disimpulkan koefisien masing-masing variabel tidak sama dengan nol (signifikan)
Dari uji asumsi residual dan uji koefisien regresi dapat diperoleh model untuk data
tersebut adalah:
Y = 84,97767 + 0,7175X1 + 0,3223X2 +0,02367X3 +0,07314X4 +0,1276X5
+0,0019382X6 +0,058367 X7

25
Dari model tersebut dapat kita lihat bahwa variabel Y dapat diterangkan oleh
skor komponen utama sebesar 73,4% dan sisanya ditengkan oleh variabel lain di
luar model . Berdasarkan pemilihan model dari K1, K2, K3, dan K4 dengan
keragaman data 78,7% maka faktor dominan yang mempengaruhi penyakit
hipertensi yaitu : Usia, berat badan, kadar glukosa, dan kadar kolesterol total.

26
BAB IV
KESIMPULAN
4.1 Kesimpulan
Salah satu cara untuk mengatasi kasus multikolinearitas dalam analasis
regresi berganda adalah menggunakan metode regresi komponen utama yang
merupakan kombinasi analisis regresi berganda dengan analisis komponen utama.
Dari data faktor-faktor yang mempengaruhi jumlah darah tinggi dalam
tubuh didapatkan model regresi berganda sebagai berikut:

Karena asumsi adanya multikolinearitas terpenuhi pada model regresi


komponen utama. maka diperoleh model regresi komponen utama sebagai
berikut: Y = 170 + 1,95 K1 - 9,48 K2 - 3,15 K3 - 0,96 K4
Serta uji asumsi residual dan uji koefisien regresi diperoleh bahwa model
tersebut merupakan model yang mendekati sebaran data yang sebenarnya
sehingga diperoleh model dengan variabel asal sebagia berikut: Y = 84,97767
+ 0,7175X1 + 0,3223X2 +0,02367X3 +0,07314X4 +0,1276X5 +0,0019382X6
+0,058367 X7.
4.2 Saran
Jika dijumpai data multikolinearitas maka salah satu model regresi yang
dapat menyelesaikan kasus ini adalah analisis regresi komponen utama. Metode
regresi komponen utama merupakan metode yang tidak membuang variabel tetapi
memunculkan semua variabel dengan galat kecil

27
DAFTAR PUSTAKA

Permadi, Hendro.1999.Teknik Analisis Regresi.Malang:JICA


Kurniawan, Deny.2008.Regresi Linear (Linear Regression)(online: diunduh
tanggal 23 Desember 2013)
Prasetyo , Haris Bhakti, Dian Handayani, Widyanti Rahayu.2011. Analisis Regresi
Komponen Utana untuk Mengatasi Masalah Multikolinearitas dalam
Analisis Regresi Linier (Online: diunduh tanggatl 11 Desember 2013)
Basri.Uji Regresi Berganda (online: diunduh tanggal 11 Desember 2013)
Suliyanto.Uji Asumsi Klasik (online: diunduh tanggal 12 Desember 2013)

28

Você também pode gostar