Você está na página 1de 26

Analisis Multivariat

Analisis Multivariat adalah metode pengolahan variabel dalam jumlah yang banyak,
dimana tujuannya adalah untuk mencari pengaruh variabel-variabel tersebut terhadap
suatu obyek secara simultan atau serentak.

Pengertian Analisis Multivariat


Metode analisis multivariat adalah suatu metode statistika yang tujuan digunakannya adalah
untuk menganalisis data yang terdiri dari banyak variabelserta diduga antar variabel tersebut
saling berhubungan satu sama lain.

Analisis multivariat adalah salah satu dari teknik statistik yang diterapkan untuk memahami
struktur data dalam dimensi tinggi. Dimana variabel-variabel yang dimaksud tersebut saling
terkait satu sama lain.

Berdasarkan beberapa definisi Analisis Multivariat di atas, maka statistikian menyimpulkan


bahwa yang dimaksud dengan Analisis Multivariat adalah suatu analisis yang
melibatkan variabel dalam jumlah lebih dari atau sama dengan 3 variabel.

Dimana minimal ada satu variabel terikat dan lebih dari satu variabel bebas serta terdapat
korelasi atau keterikatan antara satu variabel dengan variabel lainnya. Maka dapat diartikan
bahwa Analisis Multivariat juga merupakan analisis yang melibatkan cara perhitungan yang
kompleks. tujuannya adalah agar dapat memahami struktur data berdimensi tinggi dan saling
terkait satu sama lain.

Teori Analisis Multivariat


Teori dari Metode analisis multivariat dalam hal ini sebenarnya telah diketahui sejak lama
sekali, hanya saja karena cara perhitungannya yang rumit maka jarang sekali diterapkan. Tetapi
akhir-akhir ini, bersamaan dengan berkembangnya teknologi. Dimana muncul aplikasi komputer
seperti SPSS untuk menghitung atau menganalisis metode statistik dengan mudah. Maka
barulah Analisis Multivariat ini sering digunakan oleh para peneliti karena kemudahan-
kemudahan yang diberikan oleh aplikasi komputer dan banyaknya informasi yang bisa didapat
dari Analisis Multivariat ini.

Statistikian juga berpendapat bahwa telah sering terjadi kesalahpahaman yang mendasar dari
para mahasiswa atau bahkan para peneliti. Yaitu tentang definisi Analisis Multivariat, yaitu
kerancuan dalam memahami perbedaan antara Analisis Multivariat dan analisis multiple.

Perlu dipahami dan diperhatikan, bahwa pengertian Analisis Multivariat benar-benar berbeda
dengan analisis multiple atau disebut juga analisis multivariabel. Kalau tentang Analisis
Multivariat sudah dibahas di atas, saatnya kita coba kupas tentang analisis multivariabel.

Perbedaan Dengan Analisis Multivariabel


Analisis multivariabel adalah analisis yang melibatkan lebih dari satu variabel bebas. Dalam
pengertian tersebut, kita tidak perlu mengetahui apakah di antara beberapa variabel tersebut,
baik variabel bebas maupun variabel terikat terdapat keterikatan atau korelasi satu sama lain.

Maka statistikian dapat menyimpulkan perbedaan antara Analisis Multivariat dan analisis
multivariabel, yaitu: Analisis Multivariat pastilah analisis multivariabel, sedangkan analisis
multivariabel belum tentu Analisis Multivariat.

Baiklah, untuk meningkatkan pemahaman para pembaca, kami coba jelaskan lebih jauh
pengertian harfiah dari Variate. Alasan statistikian perlu menjelaskannya adalah karena Analisis
Multivariat tidak pernah bisa lepas dari variate. Maka, pertanyaannya: apakah yang disebut
dengan variate?

Pengertian Variat
Titik penyusun bangunan atau pondasi dari Analisis Multivariat adalah variat itu sendiri

Variat adalah suatu kombinasi linear dari variabel-variabel yang memiliki bobot empiris yang
telah ditentukan

Suatu variate dari sejumlah n variabel yang terbobot (X1 sampai dengan Xn) dapat dinyatakan
secara matematis adalah sebagai berikut: nilai variate = w1X1+ w2X2+ w3X3++wnXn.

Sebelum melangkah lebih jauh, penting sekali bagi para pembaca, bahwa Analisis Multivariat
adalah salah satu bentuk dari analisis inferensial. Analisis inferensial artinya analisis yang
melibatkan sejumlah sampel saja. Dan dimana hasilnya nanti digunakan sebagai alat
generalisasi untuk keseluruhan populasi. Oleh karena itu, nantinya dalam Analisis Multivariat
tidak akan lepas dari istilah-istilah signifikansi dan juga tingkat kesalahan dan derajat
kepercayaan.

Jenis Data Dalam Analisis Multivariat


Seperti halnya analisis statistik lainnya, Analisis Multivariat yang kita bahas ini juga tidak lepas
dari jenis data atau skala data. Skala data yang digunakan ada dua macam, yaitu data metrik
dan data non metrik.

Data metrik adalah data yang bersifat numerik atau berisi angka-angka dan dapat dilakukan
perhitungan matematis di dalamnya, misal nilai ujian, tingkat IQ, berat badan, dll. Data metrik
disebut juga dengan data numerik atau data kuantitatif.

Dalam hal ini data metrik ada 2 macam, yaitu data interval dan data rasio. Untuk lebih jelasnya
pelajari artikel kami tentang skala data. Sedangkan data non metrik adalah data non numerik
atau disebut juga data kualitatif atau data kategorik.

Ada dua macam jenis data non metrik ini, yaitu data nominal dan data ordinal. Sekali lagi, agar
anda lebih paham lagi maka untuk lebih jelasnya silahkan pelajari artikel kami tentang skala
data.

Baiklah, sepertinya pembukaan atau pengantar tentang Analisis Multivariat telah kita lalui.
Selanjutnya kita bahas lebih dalam lagi tentang klasifikasi Analisis Multivariat.

Klasifikasi Analisis Multivariat


Klasifikasi analisis multivariat ada tiga macam, yaitu yang pertama adalah teknik dependensi
atau istilah english versionnya adalah dependent technique. Yang kedua adalah teknik
interdependensi atau english versionnya adalah interdependent technique. Dan yang ketiga
atau yang terakhir adalah dan model struktural atau english versionnya disebut dengan istilah
structural model.

Para pakar ada yang menyebutkan bahwa Analisis Multivariat hanya dikelompokkan ke dalam 2
klasifikasi saja. Yaitu analisis dependensi dan analisis interdependensi. Menurut statistikian,
tidak ada masalah tentang perbedaan ini, sebab para pakar yang berpendapat bahwa ada dua
klasifikasi, telah memasukkan Model Struktural atau struktural equation modelling sebagai
bagian dari klasifikasi analisis dependensi.

Teknik Dependensi Analisis Multivariat


Teknik Dependensi Analisis Multivariat adalah suatu metode Analisis Multivariat dimana
variabel atau kumpulan variabel yang diidentifikasi sebagai variabel dependen atau variabel
terikat dapat diprediksi atau dijelaskan oleh variabel lain yang merupakan variabel independen
atau variabel bebas.

Analisis dependensi berfungsi untuk menerangkan atau memprediksi variabel terikat dengan
menggunakan dua atau lebih variabel bebas.

Sehingga berdasarkan pengertian di atas, maka analisis yang termasuk di dalam klasifikasi
analisis dependensi antara lain: analisis regresi linear berganda atau multiple linear
regression, analisis diskriminan atau discriminant analysis, analisis varian multivariate
(MANOVA), dan analisis korelasi kanonikal atau canonical correlations.

Jenis-Jenis Analisis Dependensi


Berikut kami tampilkan jenis-jenis analisis dependensi dalam bentuk tabel beserta skala data
dan jumlah variabel yang dianalisis:

Teknik Dependensi Analisis Multivariat


Dari tabel diatas, dapat kami jelaskan bahwa:

Regresi linear dan regresi logistik digunakan jika jumlah variabel dependen ada 1.
Perbedaannya adalah, regresi linear digunakan jika skala data variabel terikat adalah metrik.
Sedangkan regresi logistik, skala data variabel terikat adalah non metrik.

Analisis diskriminan juga melibatkan satu variabel terikat, namun sama halnya dengan regresi
logistik, skala data variabel terikat adalah data non metrik. Analisis diskriminan lebih dekat
dengan regresi linear dari pada regresi logistik, sebab analisis diskriminan mewajibkan variabel
bebas yang berskala data numerik haruslah berdistribusi normal.

Perbedaan Analisis Konjoin dengan Regresi Logistik


Sedangkan regresi logistik tidak mewajibkan asumsi tersebut. Analisis konjoin hampir sama
dengan analisis diskriminan, namun pada analisis konjoin, semua data yang digunakan adalah
data non metrik.

Analisis Kanonikal lebih mirip dengan analisis diskriminan, hanya saja jumlah variabel terikat
yang digunakan lebih dari satu. Sedangkan MANOVA lebih mirip dengan analisis kanonikal,
dimana perbedannya adalah pada MANOVA atau yang biasa disebut dengan Multivariate
Analysis of Variance menggunakan data non metrik pada variabel bebas.

Agar anda lebih paham lagi, kami jelaskan beberapa pengertian tentang analisis dependensi
yang sudah disebutkan di atas.
Multiple Linear Regression atau Regresi Linear Berganda
Regresi Linear Berganda adalah metode analisis ini bertujuan menguji hubungan antara dua
variabel bebas atau lebih dan satu variabel terikat. Silahkan pelajari lebih jauh tentang Analisis
Regresi Korelasi.

Multiple Discriminant Analysis atau Analisis Diskriminan Berganda


Analisis Diskriminan Berganda adalah suatu teknik statistika yang bertujuan untuk memprediksi
atau meramalkan probabilitas dari objek yang termasuk ke dalam dua atau lebih kategori
mutual yang eksklusif pada variabel terikat yang berdasarkan pada beberapa variabel bebas.

Asumsi dari analisis Diskriminan Berganda adalah adalah variabel bebas harus berupa data
metrik dan berdistribusi normal. Silahkan pelajari lebih jauh tentang Analisis Diskriminan.

Multiple Logit Regression atau Multiple Logistic Regression atau Regresi logistik
Berganda
Regresi logistik Berganda adalah model regresi dimana satu variabel terikat non metrik yang
diprediksi atau diramalkan oleh beberapa variabel bebas berskala data metrik atau non metrik.
Teknik ini hampir sama dengan analisis diksriminan, hanya saja dalam perhitungannya
menggunakan prinsip perhitungan regresi seperti halnya regresi linear. Silahkan pelajari lebih
jauh tentang regresi logistik.

Multivariate Analysis of Variance (MANOVA)


Suatu teknik statistik yang menyediakan suatu uji signifikansi simultan perbedaan rata-rata
antara kelompok-kelompok untuk dua atau lebih variabel dependen. Silahkan pelajari lebih jauh
tentang MANOVA.

Conjoint Analysis atau Analisis Konjoin


Analisis Konjoin adalah sebuah teknik statistik yang bertujuan untuk memahami preferensi
responden terhadap suatu produk atau jasa. Analisis ini juga dikenal dengan istilah english
versionnya sebagai trade off analysis.

Canonical Correlation atau Korelasi Kanonikal


Korelasi Kanonikal adalah bentuk pengembangan dari analisis regresi linearberganda. Tujuan
dari analisis korelasi kanonikal adalah untuk mengkorelasikan secara simultan beberapa
variabel terikat dengan beberapa variabel bebas.

Perbedaannya dengan regresi linear berganda adalah: regresi linear berganda hanya
menggunakan satu variabel terikat dengan beberapa variabel bebas. Sedangkan pada korelasi
kanonikal ini menggunakan beberapa variabel terikat yang akan dikorelasikan dengan variabel
bebas.

Teknik Interdependensi Analisis Multivariat


Teknik Interdependensi Analisis Multivariat adalah Analisis Multivariat yang melibatkan analisis
secara serentak dari semua variabel dalam satu kumpulan, tanpa membedakan antara variabel
yang terikat ataupun variabel yang bebas.

Teknik analisis interdependensi berguna dalam memberikan makna terhadap


sekelompok variabel atau membuat kelompok kelompok secara bersama-sama.

Jenis Analisis Interdependensi


Berikut kami tampilkan jenis analisis interdependensi menggunakan tabel:

Teknik Interdependensi Analisis Multivariat


Berikut kami coba jelaskan satu persatu tentang jenis-jenis analisis interdependensi diatas.

Factor Analysis atau Analisis Faktor


Analisis faktor adalah sebuah teknik statistika untuk menganalisis struktur dari hubungan timbal
balik diantara sejumlah besar variabel yang bertujuan untuk menentukan kumpulan faktor dari
common underlying dimensions.

Dalam analisis faktor ada dua jenis analisis, yaitu Principal Components Analysis atau PCA dan
Common Factor Analysis. Silahkan pelajari lebih detail di artikel kami: Analisis Faktor.

Cluster Analysis atau Analisis Kluster


Analisis Kluster adalah sebuah teknik statistika yang bertujuan untuk mengelompokkan
sekumpulan objek sehingga setiap objek tersebut mirip dengan objek yang lainnya dalam suatu
gugusan atau kluster dan berbeda dari objek yang berada pada semua gugusan lainnya.

Dalam analisis kluster, ada dua jenis analisis, yaitu analisis kluster hirarki dan analisis kluster
non hirarki. Silahkan pelajari lebih detail di artikel kami: Analisis Kluster.

Multidimensional Scaling atau Penskalaan Multi Dimensi


Multidimensional Scaling adalah sebuah teknik statistika yang bertujuan dalam mengukur objek
pada skala multidimensi yang berdasarkan pada keputusan dari responden terhadap kesamaan
objek.

Correspondence Analysis atau Analisis Korespondensi


Analisis Korespondensi adalah suatu teknik statistika yang menggunakan data-data non metrik
dan bertujuan untuk melakukan evaluasi terhadap hubungan linear atau hubungan non linear.
Dimana langkah tersebut sebagai bentuk usaha dalam mengembangkan perceptual map yang
menggambarkan asosiasi atau hubungan antara objek dengan seperangkat karakteristik
deskriptif dari objek tersebut.

Teknik Model Struktural Atau Structural Model Analisis Multivariat


Teknik yang terakhir ini, yaitu Teknik Model Struktural adalah sebuah teknik yang yang
mencoba menganalisis hubungan secara simultan variabel dependen dan independen secara
bersamaan. Model seperti ini dikenal dengan istlah model persamaan struktural atau english
versionnya adalah Structural Equation Model dan biasa disingkat dengan SEM.

Kelebihan SEM adalah dapat meneliti hubungan antara beberapa kelompok variabel secara
bersamaan atau serentak. Baik variabel bebas maupun variabel terikat. Bahkan metode ini juga
dapat menggabungkan adanya variabel laten. Variabel laten dalam hal ini adalah variabel yang
sebenarnya keberadaannya tidak dapat diukur secara langsung ke dalam analisis.
Analisis Faktor

Definisi Analisis Factor


Analisis faktor adalah sebuah teknik yang digunakan untuk mencari faktor-faktor yang mampu
menjelaskan hubungan atau korelasi antara berbagai indikator independen yang diobservasi.

Analisis faktor merupakan perluasan dari analisis komponen utama. Digunakan juga untuk
mengidentifikasi sejumlah faktor yang relatif kecil yang dapat digunakan untuk menjelaskan sejumlah
besar variabel yang saling berhubungan.

Sehingga variabel-variabel dalam satu faktor mempunyai korelasi yang tinggi, sedangkan korelasi dengan
variabel-variabel pada faktor lain relatif rendah. Tiap-tiap kelompok dari variabel mewakili suatu
konstruksi dasar yang disebut faktor. Untuk meningkatkan daya interpretasi faktor, harus
dilakukan transformasi pada matriks loading. Transformasi dilakukan dengan merotasi matriks tersebut
dengan metode varimax, quartimax, equamax, quartimin, biquartimin dan covarimin serta oblimin.

Analisis Faktor

Hasil rotasi ini akan mengakibatkan setiap variabel asal mempunyai korelasi tinggi dengan faktor tertentu
saja dan dengan faktor yang lain korelasi relatif rendah sehingga setiap faktor akan lebih mudah untuk
diinterpretasikan. Untuk mengetahui rotasi mana yang sesuai digunakan 2min yang dihasilkan dari
analisis procrustes.

Analisis procrustes adalah suatu teknik analisis yang digunakan untuk membandingkan dua konfigurasi.
Dalam hal ini konfigurasi data hasil analisis factor yang sudah dirotasi dibandingkan dengan data asal.
Sebelum kedua data dibandingkan terlebih dahulu kedua data diproses berdasarkan penetapan dan
penyesuaian posisi. Penetapan dan penyesuaian dengan posisi dilakukan dengan transformasi yaitu
transformasi translasi, rotasi maupun dilasi yang dibuat sedemikian sehingga diperoleh jarak yang sedekat
mungkin. Setelah proses tersebut dilakukan dapat diketahui sejauh mana konfigurasi data analisis faktor
dapat menggambarkan data asal.

Tujuan Analisis Faktor


Tujuan utama analisis faktor adalah untuk menjelaskan struktur hubungan di antara banyak variabel
dalam bentuk faktor atau vaiabel laten atau variabel bentukan. Faktor yang terbentuk merupakan besaran
acak (random quantities) yang sebelumnya tidak dapat diamati atau diukur atau ditentukan secara
langsung. Selain tujuan utama tersebut, terdapat tujuan lainnya adalah:

1. Untuk mereduksi sejumlah variabel asal yang jumlahnya banyak menjadi sejumlah variabel baru
yang jumlahnya lebih sedikit dari variabel asal, dan variabel baru tersebut dinamakan faktor atau
variabel laten atau konstruk atau variabel bentukan.
2. Untuk mengidentifikasi adanya hubungan antarvariabel penyusun faktor atau dimensi dengan
faktor yang terbentuk, dengan menggunakan pengujian koefisien korelasi antar faktor dengan
komponen pembentuknya. Analisis faktor ini disebut analisis faktor konfirmatori.
3. Untuk menguji valisitas dan reliabilitas instrumen dengan analisis faktor konfirmatori.
4. Validasi data untuk mengetahui apakah hasil analisis faktor tersebut dapat digeneralisasi ke dalam
populasinya, sehingga setelah terbentuk faktor, maka peneliti sudah mempunyai suatu hipotesis
baru berdasarkan hasil analisis tersebut.
Perbedaan Analisis Komponen Utama (PCA) dan Analisis Faktor Konfirmatori (CFA)
Analisis faktor pada dasarnya dapat dibedakan secara nyata menjadi dua macam yaitu:

1. Analisis Faktor Eksploratori Atau Analisis Komponen Utama (PCA)


Analisis faktor eksploratori atau analisis komponen utama (PCA = principle component analysis) yaitu
suatu teknik analisis faktor di mana beberapa faktor yang akan terbentuk berupa variabel laten yang
belum dapat ditentukan sebelum analisis dilakukan.

Pada prinsipnya analisis faktor eksploratori di mana terbentuknya faktor-faktor atau variabel laten baru
adalah bersifat acak, yang selanjutnya dapat diinterprestasi sesuai dengan faktor atau komponen atau
konstruk yang terbentuk. Analisis faktor eksploratori persis sama dengan anlisis komponen utama (PCA).

Dalam analisis faktor eksploratori di mana peneliti tidak atau belum mempunyai pengetahuan atau teori
atau suatu hipotesis yang menyusun struktur faktor-faktornya yang akan dibentuk atau yang terbentuk,
sehingga dengan demikian pada analisis faktor eksploratori merupakan teknik untuk membantu
membangun teori baru.

Analisis faktor eksploratori merupakan suatu teknik untuk mereduksi data dari variabel asal atau variabel
awal menjadi variabel baru atau faktor yang jumlahnya lebih kecil dari pada variabel awal. Proses analisis
tersebut mencoba untuk menemukan hubungan antarvariabel baru atau faktor yang terbentuk yang saling
independen sesamanya, sehingga bisa dibuat satu atau beberapa kumpulan variabel laten atau faktor yang
lebih sedikit dari jumlah variabel awal yang bebas atau tidak berkorelasi sesamanya. Jadi antar faktor
yang terbentuk tidak berkorelasi sesamanya.

2. Analisis Faktor Konfirmatori (CFA)


Analisis faktor konfirmatori yaitu suatu teknik analisis faktor di mana secara apriori berdasarkan teori dan
konsep yang sudah diketahui dipahami atau ditentukan sebelumnya, maka dibuat sejumlah faktor yang
akan dibentuk, serta variabel apa saja yang termasuk ke dalam masing-masing faktor yang dibentuk dan
sudah pasti tujuannya. Pembentukan faktor konfirmatori (CFA) secara sengaja berdasarkan teori dan
konsep, dalam upaya untuk mendapatkan variabel baru atau faktor yang mewakili beberapa item atau sub-
variabel, yang merupakan variabel teramati atau observerb variable.

Pada dasarnya tujuan analisis faktor konfirmatori adalah: pertama untuk mengidentifikasi adanya
hubungan antar variabel dengan melakukan uji korelasi. Tujuan kedua untuk menguji validitas dan
reliabilitas instrumen. Dalam pengujian terhadap validitas dan reliabilitas instrumen atau kuesioner untuk
mendapatkan data penelitian yang valid dan reliabel dengan analisis faktor konfirmatori.

Proses Analisis Faktor


Secara garis besar, tahapannya:

1. Merumuskan masalah.
2. Menyusun matriks korelasi.
3. Ekstraksi faktor.
4. Merotasi factor.
5. Interpretasikan Faktor.
6. Pembuatan factor scores.
7. Pilih variabel surrogate atau tentukan summated scale.
Berikut penjelasan langkah-langkah di atas:
Merumuskan masalah
Merumuskan masalah meliputi beberapa hal:

1. Tujuan analisis faktor harus diidentifikasi.


2. Variabel yang akan dipergunakan di dalam analisis faktor harus dispesifikasi berdasarkan
penelitian sebelumnya, teori dan pertimbangan dari peneliti.
3. Pengukuran variabel berdasarkan skala interval atau rasio.
4. Banyaknya elemen sampel (n) harus cukup atau memadai.
Menyusun matriks korelasi
Di dalam melakukan analisis faktor, keputusan pertama yang harus diambil oleh peneliti adalah
menganalisis apakah data yang ada cukup memenuhi syarat di dalam analisis faktor. Langkah pertama ini
dilakukan dengan mencari korelasi matriks antara indicator-indikator yang diobservasi. Ada beberapa
ukuran yang bisa digunakan untuk syarat kecukupan data sebagai rule of thumb yaitu:

1. Korelasi matriks antar indikator: Metode yang pertama adalah memeriksa korelasi matriks.
Tingginya korelasi antara indikator mengindikasikan bahwa indikator-indikator tersebut dapat
dikelompokkan ke dalam sebuah indikator yang bersifat homogen sehingga setiap indikator
mampu membentuk faktor umum atau faktor konstruk. Sebaliknya korelasi yang rendah antara
indikator megindikasikan bahwa indikator-indikator tersebut tidak homogen sehingga tidak
mampu membentuk faktor konstruk.
2. Korelasi parsial: Metode kedua adalah memeriksa korelasi parsial yaitu mencari korelasi satu
indikator dengan indikator lain dengan mengontrol indikator lain. Korelasi parsial ini disebut
dengan negative anti-image correlations.
3. Kaiser-Meyer Olkin (KMO) : Metode ini paling banyak digunakan untuk melihat syarat
kecukupan data untuk analisis faktor. Metode KMO ini mengukur kecukupan sampling secara
menyeluruh dan mengukur kecukupan sampling untuk setiap indikator.
Ekstraksi faktor
Ekstraksi Faktor adalah suatu metode yang digunakan untuk mereduksi data dari beberapa indikator untuk
menghasilkan faktor yang lebih sedikit yang mampu menjelaskan korelasi antara indikator yang
diobservasi. Ada beberapa metode yang bisa digunakan untuk melakukan ekstraksi faktor yaitu:

1. Principal Components Analysis: Analisis komponen utama (principal components analysis)


merupakan metode yang paling sederhana di dalam melakukan ekstraksi faktor. Metode ini
membentuk kombinasi linear dari indikator yang diobservasi.
2. Principal Axis Factoring: Metode ini hampir sama dengan metode principal components analysis
sebelumnya kecuali matriks korelasi diagonal diganti dengan sebuah estimasi indikator
kebersamaan, namun tidak sama dengan principal components analysis di mana indikator
kebersamaan yang awal selalu diberi angka 1.
3. Unweighted Least Square: Metode ini adalah prosedur untuk meminimumkan jumlah perbedaan
yang dikuadratkan antara matriks korelasi yang diobservasi dan yang diproduksi dengan
mengabaikan matriks diagonal dari sejumlah faktor tertentu.
4. Generalized Least Square: Metode ini adalah metode meminimumkan error sebagaimana metode
unweighted least squares. Namun, korelasi diberi timbangan sebesar keunikan dari indikator
(error). Korelasi dari indikator yang mempunyai error yang besar diberi timbangan yang lebih
kecil dari indikator yang mempunyai error yang kecil.
5. Maximum Likelihood: Adalah suatu prosedur ekstraksi faktor yang menghasilkan estimasi
parameter yang paling mungkin untuk mendapatkan matriks korelasi observasi jika sampel
mempunyai distribusi normal multivariat.
Merotasi Faktor
Setelah kita melakukan ekstraksi faktor, langkah selanjutnya adalah rotasi faktor (rotation). Rotasi faktor
ini diperlukan jika metode ekstraksi faktor belum menghasilkan komponen faktor utama yang jelas.
Tujuan dari rotasi faktor ini agar dapat memperoleh struktur faktor yang lebih sederhana agar mudah
diinterpretasikan. Ada beberapa metode rotasi faktor yang bisa digunakan yaitu:

1. Varimax Method: Adalah metode rotasi orthogonal untuk meminimalisasi jumlah indikator yang
mempunyai factor loading tinggi pada tiap faktor.
2. Quartimax Method: Merupakan metode rotasi untuk meminimalisasi jumlah faktor yang
digunakan untuk menjelaskan indikator.
3. Equamax Method: Merupakan metode gabungan antara varimax method yang meminimalkan
indikator dan quartimax method yang meminimalkan faktor.
Interpretasikan Faktor
Setelah diperoleh sejumlah factor yang valid, selanjutnya kita perlu menginterprestasikan nama-nama
factor, mengingat factor merupakan sebuah konstruk dan sebuah konstruk menjadi berarti kalau dapat
diartikan. Interprestasi factor dapat dilakukan dengan mengetahui variable-variabel yang membentuknya.
Interprestasi dilakukan dengan judgment. Karena sifatnya subjektif, hasil bisa berbeda jika dilakukan oleh
orang lain.

Pembuatan factor scores


Faktor score yang dibuat, berguna jika akan dilakukan analisis lanjutan, seperti analisis regresi, analisis
diskriminan atau analisis lainnya.

Pilih variabel surrogate atau tentukan summated scale

1. Variabel surrogate adalah satu variable yang paling dapat mewakili satu factor. Misak factor 1
terdiri dari variable X1, X2 dan X3. Maka yang paling mewakili factor 1 adalah variable yang
memiliki factor loading terbesar. Apabila factor loading tertinggi dalam satu factor ada yang
hampir sama, missal X1 = 0,905 dan X2 = 0,904 maka sebaiknya pemilihan surrogate variable
ditentukan berdasarkan teori, yaitu variable mana secara teori yang paling dapat mewakili factor.
Atau cara lain adalah dengan menggunakan Summated Scale.
2. Summated Scale adalah gabungan dari beberapa variable dalam satu factor, bisa berupa nilai rata-
rata dari semua factor tersebut atau nilai penjumlahan dari semua variable dalam satu factor.
Tahapan secara grafik dapat anda lihat pada gambar Framework Analisis Faktor di atas!
Regresi Logistik
Regresi logistik adalah sebuah pendekatan untuk membuat model prediksi seperti halnya regresi linear
atau yang biasa disebut dengan istilah Ordinary Least Squares (OLS) regression. Perbedaannya adalah
pada regresi logistik, peneliti memprediksi variabel terikat yang berskala dikotomi. Skala dikotomi yang
dimaksud adalah skala data nominal dengan dua kategori, misalnya: Ya dan Tidak, Baik dan Buruk atau
Tinggi dan Rendah.

Apabila pada OLS mewajibkan syarat atau asumsi bahwa error varians (residual) terdistribusi secara
normal. Sebaliknya, pada regresi ini tidak dibutuhkan asumsi tersebut sebab pada regresi jenis logistik
ini mengikuti distribusi logistik.

Asumsi Regresi Logistik


Asumsi Regresi Logistik antara lain:

1. Regresi logistik tidak membutuhkan hubungan linier antara variabel independen dengan
variabel dependen.
2. Variabel independen tidak memerlukan asumsi multivariate normality.
3. Asumsi homokedastisitas tidak diperlukan
4. Variabel bebas tidak perlu diubah ke dalam bentuk metrik (interval atau skala ratio).
5. Variabel dependen harus bersifat dikotomi (2 kategori, misal: tinggi dan rendah atau baik dan
buruk)
6. Variabel independen tidak harus memiliki keragaman yang sama antar kelompok variabel
7. Kategori dalam variabel independen harus terpisah satu sama lain atau bersifat eksklusif
8. Sampel yang diperlukan dalam jumlah relatif besar, minimum dibutuhkan hingga 50 sampel data
untuk sebuah variabel prediktor (independen).
9. Dapat menyeleksi hubungan karena menggunakan pendekatan non linier log transformasi untuk
memprediksi odds ratio. Odd dalam regresi logistik sering dinyatakan sebagai probabilitas.
Model Persamaan Regresi Logistik
Model persamaan aljabar layaknya OLS yang biasa kita gunakan adalah berikut: Y = B0 + B1X + e. Dimana
e adalah error varians atau residual. Dengan model regresi ini, tidak menggunakan interpretasi yang
sama seperti halnya persamaan regresi OLS. Model Persamaan yang terbentuk berbeda dengan
persamaan OLS.

Berikut persamaannya:

Persamaan Regresi Logistik

Ln: Logaritma Natural.Di mana:

B0 + B1X: Persamaan yang biasa dikenal dalam OLS.

Sedangkan P Aksen adalah probabilitas logistik yang didapat rumus sebagai berikut:
Probabilitas Regresi Logistik

Di mana:

exp atau ditulis e adalah fungsi exponen.

(Perlu diingat bahwa exponen merupakan kebalikan dari logaritma natural. Sedangkan logaritma natural
adalah bentuk logaritma namun dengan nilai konstanta 2,71828182845904 atau biasa dibulatkan
menjadi 2,72).

Dengan model persamaan di atas, tentunya akan sangat sulit untuk menginterprestasikan koefisien
regresinya. Oleh karena itu maka diperkenalkanlah istilah Odds Ratio atau yang biasa disingkat Exp(B)
atau OR. Exp(B) merupakan exponen dari koefisien regresi. Jadi misalkan nilai slope dari regresi adalah
sebesar 0,80, maka Exp(B) dapat diperkirakan sebagai berikut:

Nilai Odds Ratio


Besarnya nilai Exp(B) dapat diartikan sebagai berikut:

Misalnya nilai Exp (B) pengaruh rokok terhadap terhadap kanker paru adalah sebesar 2,23, maka
disimpulkan bahwa orang yang merokok lebih beresiko untuk mengalami kanker paru dibadningkan
dengan orang yang tidak merokok. Interprestasi ini diartikan apabila pengkodean kategori pada tiap
variabel sebagai berikut:

1. Variabel bebas adalah Rokok: Kode 0 untuk tidak merokok, kode 1 untuk merokok.
2. Variabel terikat adalah kanker Paru: Kode 0 untuk tidak mengalami kanker paru, kode 1 untuk
mengalami kanker paru.
Pseudo R Square
Perbedaan lainnya yaitu pada regresi ini tidak ada nilai R Square untuk mengukur besarnya pengaruh
simultan beberapa variabel bebas terhadap variabel terikat. Dalam regresi logistik dikenal istilah Pseudo
R Square, yaitu nilai R Square Semu yang maksudnya sama atau identik dengan R Square pada OLS.

Jika pada OLS menggunakan uji F Anova untuk mengukur tingkat signifikansi dan seberapa baik model
persamaan yang terbentuk, maka pada regresi ini menggunakan Nilai Chi-Square. Perhitungan nilai Chi-
Square ini berdasarkan perhitungan Maximum Likelihood.

Demikian penjelasan singkat tentang regresi logistik. Agar anda lebih mudah memahaminya, silahkan
baca artikel kami tentang Regresi Logistik dengan SPSS.

.
Maka akan keluar output sebagai berikut:
Dependent Variable: Y
Method: ML - Binary Logit (Quadratic hill climbing)
Date: 02/07/14 Time: 08:50
Sample: 1 35
Included observations: 35
Convergence achieved after 5 iterations
Covariance matrix computed using second derivatives

Variable Coefficient Std. Error z-Statistic Prob.

C -1.417341 1.094598 -1.294851 0.1954


D01 0.068678 0.026412 2.600218 0.0093
T -1.658949 0.922867 -1.797603 0.0722

McFadden R-squared 0.347378 Mean dependent var 0.628571


S.D. dependent var 0.490241 S.E. of regression 0.382841
Akaike info criterion 1.032513 Sum squared resid 4.690151
Schwarz criterion 1.165828 Log likelihood -15.06897
Hannan-Quinn criter. 1.078533 Restr. log likelihood -23.08991
LR statistic 16.04187 Avg. log likelihood -0.430542
Prob(LR statistic) 0.000329

Obs with Dep=0 13 Total obs 35


Obs with Dep=1 22
Nah, mari kita interpretasi satu per satu output yang muncul.
Overall test:
Test ini dilakukan untuk mengetahui apakah secara bersama-sama variabel bebas berpengaruh signifikan terhadap variabel tidak
bebas atau minimal ada satu variabel bebas yang berpengaruh signifikan terhadap variabel tak bebas. Uji ini mirip dengan uji F
pada analisis regresi linier berganda. Nilai uji ini dapat dilihat pada LR 2 atau bila menggunakan nilai p-value dapat dilihat pada
item prob>chi2. Untuk lebih mudahnya, dapat langsung kita lihat dengan menggunakan nilai p-value, dimana nilai
pob> 2 menunjukkan angka 0.000. Nilai ini lebih kecil dari tingkat signifikansi uji sebesar 0.05 sehingga kita dapat menolak
hipotesis nol yang menyatakan bahwa tidak ada variabel bebas yang berpengaruh signifikan terhadap variabel tak bebas. Dengan
demikian, maka dengan tingkat kepercayaan 95 persen dapat disimpulkan bahwa minimal terdapat satu variabel bebas yang
berepengaruh signifikan terhadap variabel tak bebas.
2. Parsial Test
st ini dilakukan untuk mengetahui pengaruh setiap variabel bebas terhadap variabel tak bebas secara parsial. Uji ini mirip dengan
uji t pada analisis regresi linier berganda. Nilai uji ini dapat dilihat pada nilai z atau bila menggunakan nilai p-value dapat dilihat
pada item Sig. Agar lebih mudah, kali ini kita akan menggunakan nilai Sig. Untuk variabel T nilai Sig. adalah 0.072. Nilai ini lebih
besar dari nilai signifikansi uji sebesar 0.05 sehingga gagal menolah H0 yang menyatakan bahwa variabel T tidak berpengaruh
signifikan terhadap variabel Y. Sehingga dengan tingkat kepercayaan 95 persen dapat disimpulkan bahwa variabel T tidak
berpengaruh signifikan terhadap variabel Y. Sementara itu, untuk variabel D, mepunyai nilai Sig sebesar 0.009. Nilai ini lebih kecil
dari nilai signifikansi uji sebesar 0.05 sehingga H0 yang menyatakan bahwa variabel T tidak berpengaruh signifikan terhadap
variabel Y bisa ditolak. Sehingga dengan tingkat kepercayaan 95 persen dapat disimpulkan bahwa variabel D berpengaruh signifikan
terhadap variabel Y.
3. Pseudo R-Square
Nilai ini disebut Pseudo R-square karena dihitung berbeda dengan penghitungan R-square pada analisis regresi berganda atau
analisis regresi sederhana. SPSS secara default menghitung nilai R-Square pada regresi logistik dengan menggunakan formula
Nagelkerke R-squared. Pembacaannya sama seperti pembacaan nilai R-squared pada analisis regresi berganda/sederhana. Nilai
pseudo R-squared pada model ini adalah 0.502 artinya 50,2 persen variasi yang terjadi pada Y dapat dijelaskan oleh variabel dalam
model, sedangkan sisanya dijelaskan oleh variabel lain di luar model.
4. Interpretasi
Tidak seperti pada analisis regresi linier berganda/sederhana, interpretasi pada analisis regresi logistik tidak dapat langsung dibaca
melalui nilai koefisiennya. Untuk dapat diinterpretasikan, terlebih dahulu nilai koefisien setiap variabel harus di-eksponensial-kan.
Untuk variabel T, nilai exp(b) adalah 0.190 sedangkan nilai exp(b) dari variabel D adalah 1.071.
Setelah diperoleh nilai exp(b) atau yang lebih dikenal dengan odds ratio, maka model akan siap diinterpretasi. Interpretasi antara
variabel bebas kuantitatif akan berbeda dengan variabel bebas kualitatif. Untuk variabel bebas kuantitatif akan dibaca semakin
besar atau semakin kecil (tergantung tanda) sedangkan untuk variabel kualitatif akan dibaca sebagai tingkat perbandingannya.
Untuk variabel D: semakin lama durasi operasi seseorang, maka peluang untuk mengalami sore throat setelah operasi akan
semakin meningkat.
Untuk variabel T: kecenderungan seseorang yang memakai tracheal tube untuk mengalami sore throat adalah 0.190 kali dibanding
pasien yang menggunakan laryngeal mask airway.
Berikut merupakan hasil outputnya

Untuk model logit tidak menggunakan t hitung (t stat) lagi, tapi menggunakan z hitung (z
Stat) untuk melihat tingkat signifikannya.
untuk melihat keseuaian model digunkan likelihood ratio dan untuk intepretasi hasilnya
kita tidak boleh langsung mengintepretasikan dengan koefisien betha, tapi harus menggunakan
odd ratio.. nilai odd ratio dapat di cari dengan menggunakan excel dengan rumus =2,72^nilai
koefisien. itu artinya nilai e=2,72 dipangkatkan dengan masing-masing nilai koefisien betha
Hasilperhitungan dengan menggunakan Excel

dari hasil di atas dapat ddiintepretasikan :


Untuk Variabel Y (Pendapatan), nilai odd ratio sebesar 0,87, ini artinya bahwa setiap
kenaikan pendapatan 1 % maka keinginan untuk memilki anak berkurang sebesar 0,87 kali
dibandingkan orang yang memiliki pendapatan lebih rendah
Untuk Var ED (Tingkat Pendidikan),nilai odd ratio dari ED adalah sebesar 1.00, artinya
setiap kenaikan jumlah tahun belajar seseorag maka keinginan untuk menambah anak atau
memiliki anak lagi akan semakin menurun sebanya 1 kali dibanding seseorang yang
berpendidikan rendah.
Untuk Variabel CF (Biaya Konsumsi Makanan), nilai odd ratio dari konsumsi makanan
CF adalah 1.00, artiya semakin tinggi pengeluaran seseorang untuk konsumsi makanan maka
semakin berkurang pula keinginan untuk memilki anak lagi sebesar 1 kali dibanding yang
memiliki biaya konsumsi makanan yang lebih rendah..
Analisis Diskriminan
Analisis diskriminan adalah salah satu teknik statistik yang bisa digunakan pada
hubungan dependensi (hubungan antar variabel dimana sudah bisa dibedakan
mana variabel respon dan mana variabel penjelas).

Analisis diskriminan bermanfaat pada situasi di mana sampel total dapat dibagi menjadi
group-group berdasarkan karateristik variabel yang diketahui dari beberapa kasus.
Tujuan utama dari analisis multipel diskriminan adalah untuk mengetahui perbedaan
antar group,(Hair, Anderson, Tatham, Black, 1995).

Pengertian Analisis Diskriminan


Analisis diskriminan merupakan teknik menganalisis data, dimana variabel dependen
merupakan data kategorik atau kualitatif (ordinal atau rasio), sedangkan variabel
independen berupa data kuantitatif (interval atau rasio).

Analisis diskriminan merupakan salah satu dari analisis multivariat dengan metode
dependensi. Di mana kita mengenal ada dua metode dalam analisis multivariat, yaitu
metode dependensi dan metode interdependensi. Yang dimaksud dengan metode
dependensi yaitu variabel-variabelnya tidak saling bergantung satu dengan yang lain,
sedangkan metode interdenpendensi adalah antarvariabelnya ada saling
ketergantungan.

Tujuan Analisis Diskriminan


Analisis diskriminan adalah metode untuk mencari dasar pengelompokan individu
berdasarkan lebih dari satu variabel bebas. Analisis tersebut dipakai untuk menjawab
pertanyaan bagaimana individu dapat dimasukkan ke dalam kelompok berdasarkan
beberapa variabel.

Analisis diskriminan bertujuan untuk mengklasifikasikan suatu individu atau observasi


ke dalam kelompok yang saling bebas (mutually exclusive/disjoint) dan menyeluruh
(exhaustive) berdasarkan sejumlah variabel penjelas.

Persamaan Diskriminan
Persamaan Fungsi Diskriminan yang dihasilkan untuk memberikan peramalan yang
paling tepat untuk mengklasifikasi individu kedalam kelompok berdasarkan skor
variabel bebas.

Jika kita bandingkan dengan regresi linier, maka analisis ini merupakan kebalikannya.
Pada regresi linier, variabel respon yang harus mengikuti distribusi normal dan
homoskedastis, sedangkan variabel penjelas diasumsikan fixed, artinya variabel
penjelas tidak disyaratkan mengikuti sebaran tertentu. Untuk analisis diskriminan,
variabel penjelasnya seperti sudah disebutkan di atas harus mengikuti distribusi normal
dan homoskedastis, sedangkan variabel responnya fixed.

Asumsi Analisis Diskriminan


Asumsi dalam analisis ini antara lain:

1. Tidak adanyamultikolinieritas antara variabel independen (Hubungan linear


antar variable independen).
2. Variabel independen mengikutidistribusi normal.
3. Adanya homogenitas varians antara kelompok data (Matriks varians-
covarians variabel penjelas berukuran pxp pada kedua kelompok harus sama).
Analisis Diskriminan dapat diuji dengan menggunakan software seperti SPSS, Stata,
Minitab dan SAS. Namun dalam kesempatan kali ini, penulis akan memberikan tutorial
dan penjelasan mendetail tentang cara melakukan uji diskriminan dengan
menggunakan Software SPSS. (Tutorial menggunakan Software yang lain akan segera
menyusul).
Contoh Interprestasi Output Analisis Diskriminan
Dalam interprestasi ini, anggap saja pada variabel dependen (Y) disebut sebagai pengambilan
keputusan, di mana nilai 0 adalah responden memberi keputusan 0 dan nilai 1 adalah
responden memberi keputusan 1.

Tabel Group Membership

Analisis Diskriminan SPSS Group


Tabel Group Statistics di atas menerangkan bahwa kasus yang dianalisis ada 200 responden.
92 responden memberi keputusan 0 dan 108 memberi keputusan 1.

Pada variabel X1 nilai rata-rata X1 pada kelompok 1 : 63.20, sedangkan kelompok 0: 35.92.
Artinya rata-rata X1 terhadap Keputusan pada kelompok pertama (1) lebih tinggi dibandingkan
dengan kelompok kedua (0).

Begitu juga dengan variabel yang lain (X2 dan X3).

Tabel Equality Of Group Means

Analisis Diskriminan SPSS Test Equality


Tabel Tests of Equality of Group Means di atas adalah hasil analisis untuk
menguji kesamaan rata-rata variabel. Uji ini menggunakan Wilks lambda dan nilai
signifikansi. Jika angka Wilks Lambda mendekati angka 0 maka cenderung ada perbedaan
dalam kelompok.

Keputusan Hipotesis dengan nilai signifikansi:

Jika signifikansi > 0,05 maka tidak ada perbedaan dalam kelompok
Jika signifikansi < 0,05 maka ada perbedaan dalam kelompok
Semua variabel di atas nilai sig < 0,05, maka ketiga variabel memberikan perbedaan pada
pengambilan keputusan (Y).

Tabel Covariance dan Correlation Matrix


Analisis Diskriminan SPSS Covariance Matrix
Tabel di atas adalah tabel analisis Covariances dan Correlation. Lihat nilai Korelasi, apabila ada
korelasi antar variabel independen dengan nilai > 0,5 maka dicurigai ada
gejala multikolinearitas. Di atas tidak terdapat korelasi > 0,5, maka tidak ada multikolinearitas.

Tabel Homogenitas Covariance

Analisis Diskriminan SPSS Box M Test


Untuk menguji kesamaan varian digunakan angka Box M dengan ketentuan sebagai berikut:

Jika signifikansi > 0,05 maka HO diterima

Jika signifikansi < 0,05 maka H0 ditolak

Hipotesis:

H0 = Varians kedua kelompok data identik/homogen


H1 = Varians kedua kelompok data tidak sama/heterogen.
Dari nilai p-value statistik uji Box M diketahui nilai p-value 0,364 (> 0,05) maka terima H0.

Dengan demikian varians kelompok data adalah identik/homogen.

NB: jika tidak terpenuhinya asumsi ini dapat dilakukan eksplorasi data untuk melihat
kemungkinan ada tidaknya outlier data.

Tabel Variables Entered/Removed Analisis Diskriminan


Interprestasi Output Analisis Diskriminan SPSS Stepwise Method
Di atas menunjukkan variabel yang dimasukkan dalam tiap tahap. Ada 3 tahapan, maka ada 3
variabel yang masuk model. Variabel yang masuk model adalah variabel yang mempunyai
pengaruh bermakna pada Y dan tidak menyebabkan nilai F tidak signifikan.

Tahapan pemasukan variabel ditentukan oleh besar kecilnya angka sig of F to Remove dimana
angka terkecil akan di dahulukan.

Tabel Variabel Yang Tersisa Di Dalam Model Analisis Diskriminan

Analisis Diskriminan SPSS Variable In The Analysis


Tabel di atas menunjukkan variabel yang tetap tinggal didalam model, yaitu ada 3 variabel.

Tabel Variabel Yang Dikeluarkan Dari Dalam Model Analisis Diskriminan

Analisis Diskriminan SPSS Variable Not In The Analysis


Tabel di atas menunjukkan variabel yang keluar dari dalam model dalam tiap tahap, sampai
tahap 2 hanya ada 1 yaitu X1, tetapi akhirnya pada tahap 3 tidak ada yang dikeluarkan.

Tabel Wilks Lambda Analisis Diskriminan


Analisis Diskriminan SPSS Wilks Lambda: interprestasi output analisis diskriminan dengan
SPSS
Tabel di atas menunjukkan perubahan nilai lambda dan nilai uji F dalam tiap tahap. Sampai
tahap 3 nilai Sig tetap < 0,05, maka sampai tahap 3 variabel bebas masuk semua dalam model.

Angka signifikansi untuk 3 variabel sebesar 0,000 dengan nilai F 235,829 pada tahap satu dan
pada tahap 3 signifikansi sebesar 0,000 dengan nilai F 175.397. Karena nilai signifikansi 0,000
(< 0,05) maka variabel masing-masing kelompok mempunyai perbedaan yang signifikan.

Tabel Canonical Discriminant Dalam Analisis Diskriminan


Di bawah ini adalah tabel output terakhir dan sangat penting di dalam proses analisis
diskriminan:

Interprestasi Output Analisis Diskriminan


Eigenvalue
Pada tabel Eigenvalues terdapat nilai canonical correlation. Nilai canonical correlation
digunakan untuk mengukur derajat hubungan antara hasil diskriminan atau besarnya variabilitas
yang mampu diterangkan oleh variabel independen terhadap variabel dependen.

Canonical Correlation
Dari tabel di atas, diperoleh nilai canonical correlation sebesar 0,854 bila di kuadratkan (0,854
x 0,854) = 0.7293, artinya 72,93% varians dari variabel independen (kelompok) dapat dijelaskan
dari model diskriminan yang terbentuk.

Nilai korelasi kanonikal menunjukan hubungan antara nilai diskriminan dengan kelompok. Nilai
sebesar 0,854 berarti hubungannya sangat tinggi karena mendekati angka 1 (besarnya korelasi
antara 0-1).

Uji Wilks Lambda Uji Diskriminan SPSS

Analisis Uji Diskriminan SPSS Wilks Lambda Signifikansi

Pada tabel Wilks Lambda diketahui nilai signifikansi statistics Chi-square sebesar 0,000 (<
0,05) yang berarti ada perbedaan yang signifikan antara kedua kelompok responden yang
didasarkan pada ketiga variabel bebas.

Struktur Matrix Uji Diskriminan dengan SPSS


Analisis Diskriminan SPSS Structure Matrix

Tabel Structure Matrix menunjukan urutan karakteristik yang paling membedakan keputusan
(Y). Variabel X3 adalah yang paling membedakan, kemudian jumlah X2 dan selanjutnya X1.

Tabel di atas menunjukan adanya korelasi antara variabel-variabel bebas dengan fungsi
diskriminan yang terbentuk. Variabel X3 mempunyai korelasi yang paling tinggi dengan
nilai korelasi sebesar 0,666. Jika ada var dengan tanda a, maka variabel tersebut tidak
dimasukan dalam proses analisis diskriminan.

Tabel Fungsi Diskriminan Uji Diskriminan dengan SPSS

Uji Diskriminan

Tabel Canonical Discriminat Function Coefficients di atas menunjukkan fungsi diskriminan


dengan persamaan sebagai berikut : Z score = -6,045 (konstan) + 0,037 X1 + 0,042 X2 + 0,042
X3. Fungsi ini berguna untuk menganalisis kasus atau responden yang diteliti akan termasuk ke
dalam kelompok mana, yaitu kelompok pertama (keputusan 0) atau kedua (keputusan 1).

Berdasarkan angka tabel di atas, terdapat dua kelompok yang berbeda yaitu kelompok dengan
keputusan 0 dengan centroid (rata-rata kelompok) negatif dan kelompok yang keputusan 1
dengan centroid (rata-rata kelompok) positif.

Persamaan Uji Diskriminan dengan SPSS


Analisis Diskriminan SPSS Functions Coefficients

Tabel Classification Processing Summary di atas menunjukan jumlah kasus (responden)


sebanyak 200 yang di proses dan tidak ada data yang hilang (missing).

Pada Tabel Prior Probabilities for Groups menunjukkan kelompok dengan keputusan 0
sebanyak 92 sample sedangkan kelompok dengan keputusan sebanyak 1 sebanyak 108
sample.

Pada Tabel Classification Function Coefficients menunjukkan hal yang sama dengan bagian
Canonical Discriminant Function Coefficients di atas yang sebelumnya sudah dibahas.
Persamaannya sebagai berikut:

Untuk kelompok 0, persamaannya :

Nilai = -9.846 (konstan) + 0,161 (X1) + 0,178 (X2) + 0,178 (X3)

Untuk kelompok 1, persamaannya :

Nilai = -9.846 (konstan) + 0,282 (X1) + 0,314 (X2) + 0,316 (X3)

Selisis antara kedua kelompok :

Nilai = -6,045 (konstan) + 0,037 (X1) + 0,042 (X2) + 0,042 (X3).

Ketepatan Fungsi Uji Diskriminan dengan SPSS


Analisis Diskriminan SPSS Classification Results

Tabel di atas pada kolom Original baris Kelompok Keputusan 0 sebanyak 86 responden atau
93,5%, sedangkan 6 responden (6,5%) berpindah ke kelompok keputusan 1.

Sementara itu, 105 responden (97,2%) yang berada dikelompok keputusan 1 dan ada 3
responden (2,8%) berpindah ke kelompok keputusan 0.

Maka Ketepatan fungsi diskriminan dapat dihitung dengan cara: 86 + 105/200 = 0.955 atau 95,5
%.

Kesimpuan Hipotesis Uji Diskriminan


Kesimpulan hasil uji diskriminan dalam tutorial ini adalah:

1. Asumsi Normalitas Multivariate terpenuhi


2. Asumsi tidak adanya multikolinearitas antar variabel independen terpenuhi
3. Asumsi Homogenitas Varians antar kelompok terpenuhi
4. Terdapat perbedaan yang signifikan antara kelompok responden yang memberikan
keputusan 0 dengan kelompok yang memberikan keputusan 1
5. Faktor-faktor yang membuat berbeda adalah variabel X1, X2, dan X3 (Semua Variabel
Independen).
6. Ketepatan fungsi diskriminan adalah sebesar 95,5%. Ketepatan ini tinggi karena
mendekati angka 100%.
7. Persamaan fungsi diskriminan adalah: Nilai Z = -6,045 (konstan) + 0,037 (X1) + 0,042
(X2) + 0,042 (X3)
Demikian pembahasan singkat tentang Uji Diskriminan dan cara melakukannya dengan
menggunakan aplikasi SPSS.
Analisis Cluster
Sama dengan analisis factor, analisis cluster (cluster analysis) termasuk pada Interdependes
Techniques. Namun ada perbedaan mendasar di antara kedua alat analisis multivariate ini. Jika analisis
factor (R factor analysis) bertujuan mereduksi variabel, analisis cluster (Q factor analysis) lebih bertujuan
mengelompokkan isi variabel, walaupun bisa juga disertai dengan pengelompokan variabel. Dalam
terminology SPSS, analisis factor adalah perlakuan terhadap kolom, sedangkan analisis cluster adalah
perlakuan terhadap baris.

Tujuan Analisis Cluster


Tujuan utama analisis cluster adalah mengelompokkan objek-objek berdasarkan kesamaan karakteristik
di antara objek-objek tersebut. Objek bisa berupa produk (barang dan jasa), benda (tumbuhan atau
lainnya), serta orang (responden, konsumen atau yang lain). Objek tersebut akan diklasifikasikan ke
dalam satu atau lebih cluster (kelompok) sehingga objek-objek yang berada dalam satu cluster akan
mempunyai kemiripan satu dengan yang lain.

Definisi Analisis Cluster


Jadi definisi analisis cluster:

Analisis cluster adalah teknik multivariat yang mempunyai tujuan utama untuk mengelompokkan objek-
objek/cases berdasarkan karakteristik yang dimilikinya. Analisis cluster mengklasifikasi objek sehingga
setiap objek yang memiliki sifat yang mirip (paling dekat kesamaannya) akan mengelompok kedalam
satu cluster (kelompok) yang sama.

Secara logika, cluster yang baik adalah cluster yang mempunyai:

1. Homogenitas (kesamaan) yang tinggi antar anggota dalam satu cluster (within-cluster).
2. Heterogenitas (perbedaan) yang tinggi antar cluster yang satu dengan cluster yang lainnya
(between-cluster).
Beberapa manfaat dari analisis cluster adalah: eksplorasi data peubah ganda, reduksi data, stratifikasi
sampling, prediksi keadaan obyek. Hasil dari analisis cluster dipengaruhi oleh: obyek yang diclusterkan,
peubah yang diamati, ukuran kemiripan (jarak) yang dipakai, skala ukuran yang dipakai, serta metode
pengclusteran yang digunakan.

Proses Analisis Cluster


Untuk menganalisis cluster, anda perlu melakukan proses sebagai berikut:

Tahap 1:

Mengukur kesamaan antar objek (similarity). Sesuai prinsip analisis cluster yang mengelompokkan
objek yang mempunyai kemiripan, proses pertama adalah mengukur seberapa jauh ada kesamaan antar
objek. Metode yang digunakan:

Mengukur korelasi antar sepasang objek pada beberapa variabel


Mengukur jarak (distance) antara dua objek. Pengukuran ada bermacam-macam, yang paling
popular adalah metode Euclidian distance.
Tahap 2:

Membuat cluster. Metode dalam membuat cluster ada banyak sekali, seperti yang digambarkan dalam
diagram di bawah ini:
Diagram Analisis Cluster
Hirarchial Methode
Metode ini memulai pengelompokan dengan dengan dua atau lebih objek yang mempunyai
kesamaan paling dekat. Kemudian proses diteruskan ke objek lain yang mempunyai
kedekatan kedua. Demikian seterusnya sehingga cluster akan membentuk semacam
pohon, di mana ada hirarki (tingkatan) yang jelas antar objek, dari yang paling mirip sampai
paling tidak mirip. Secara logika semua objek pada akhirnya akan membentuk sebuah
cluster. Dendogram biasanya digunakan untuk membantu memperjelas proses hirarki
tersebut.

Kluster Hirarki
Dalam metode hirarki cluster terdapat dua tipe dasar yaitu agglomerative
(pemusatan) dan divisive (penyebaran). Dalam metode agglomerative, setiap obyek atau
observasi dianggap sebagai sebuah cluster tersendiri. Dalam tahap selanjutnya, dua cluster
yang mempunyai kemiripan digabungkan menjadi sebuah cluster baru demikian seterusnya.
Sebaliknya, dalam metode divisive kita beranjak dari sebuah cluster besar yang terdiri dari
semua obyek atau observasi. Selanjutnya, obyek atau observasi yang paling tinggi nilai
ketidakmiripannya kita pisahkan demikian seterusnya.

Agglomerative
Dalam agglomerative ada lima metode yang cukup terkenal, yaitu: Single Linkage, Complete
Linkage, Average Linkage, Wards Method, Centroid Method.

Single Linkage, prosedur ini didasarkan pada jarak terkecil. Jika dua obyek terpisah oleh
jarak yang pendek maka kedua obyek tersebut akan digabung menjadi satu cluster daan
demikian saterusnya.

Complete Linkage, berlawanan dengan Single Linkage prosedur ini pengelompokkannya


berdasarkan jarak terjauh.

Average Linkage, prosedure ini hampir sama dengan Single Linkage maupun Complete
Linkage, namun kriteria yang digunakan adalah rata-rata jarak seluruh individu dalam
suatu cluster dengan jarak seluruh individu dalam cluster yang lain.

Wards Method, jarak antara dua cluster dalam metode ini berdasarkan total sum of
square dua cluster pada masing-masing variabel.
Centroid Method, jarak antara dua cluster dalam metode ini berdasarkan
jarak centroid dua cluster yang bersangkutan.

Manfaat Analisis Kluster Hirarki


Keuntungan penggunaan metode hierarki dalam analisis Cluster adalah mempercepat
pengolahan dan menghemat waktu karena data yang diinputkan akan membentuk hierarki
atau membentuk tingkatan tersendiri sehingga mempermudah dalam penafsiran, namun
kelemahan dari metode ini adalah seringnya terdapat kesalahan pada data outlier,
perbedaan ukuran jarak yang digunakan, dan terdapatnya variabel yang tidak relevan.
Sedang metode non-hierarki memiliki keuntungan dapat melakukan analisis sampel dalam
ukuran yang lebih besar dengan lebih efisien. Selain itu, hanya memiliki sedikit kelemahan
pada data outlier, ukuran jarak yang digunakan, dan variabel tak relevan atau variabel yang
tidak tepat. Sedangkan kelemahannya adalah untuk titik bakal random lebih buruk dari pada
metode hirarkhi.

Non-Hirarchial Methode
Berbeda dengan metode hirarki, metode ini justru dimulai dengan terlebih dahulu jumlah
cluster yang diinginkan (dua cluster, tiga cluster atau yang lain). Setelah jumlah cluster
diketahui, baru proses cluster dilakukan tanpa mengikuti proses hirarki. Metode ini biasa
disebut dengan K-Means Cluster.

Kluster Non Hirarki


Kebalikan dari metode hirarki, metode nonhirarki tidak meliputi proses treelike construction.
Justru menempatkan objek-objek ke dalam cluster sekaligus sehingga terbentuk sejumlah
cluster tertentu. Langkah pertama adalah memilih sebuah cluster sebagai inisial cluster
pusat, dan semua objek dalam jarak tertentu ditempatkan pada cluster yang terbentuk.
Kemudian memilih cluster selanjutnya dan penempatan dilanjutkan sampai semua objek
ditempatkan. Objek-objek bisa ditempatkan lagi jika jaraknya lebih dekat pada cluster lain
daripada cluster asalnya.

Pendekatan Metode non hirarki cluster


Metode nonhirarki cluster berkaitan dengan K-means custering, dan ada tiga pendekatan
yang digunakan untuk menempatkan masing-masing observasi pada satu cluster.

Sequential Threshold, Metode Sequential Threshold


Sequential Threshold, Metode Sequential Threshold memulai dengan pemilihan satu
cluster dan menempatkan semua objek yang berada pada jarak tertentu ke dalamnya.
Jika semua objek yang berada pada jarak tertentu telah dimasukkan, kemudian cluster
yang kedua dipilih dan menempatkan semua objek yang berjarak tertentu ke dalamnya.
Kemudian cluster ketiga dipilih dan proses dilanjutkan seperti yang sebelumnya.

Parallel Threshold, Metode Parallel Threshold


Parallel Threshold, Metode Parallel Threshold merupakan kebalikan dari pendekatan
yang pertama yaitu dengan memilih sejumlah cluster secara bersamaan dan
menempatkan objek-objek kedalam cluster yang memiliki jarak antar muka terdekat.
Pada saat proses berlangsung, jarak antar muka dapat ditentukan untuk memasukkan
beberapa objek ke dalam cluster-cluster. Juga beberapa variasi pada metode ini, yaitu
sisa objek-objek tidak dikelompokkan jika berada di luar jarak tertentu dari sejumlah
cluster.

Optimization
Optimization, Metode ketiga adalah serupa dengan kedua metode sebelumnya kecuali
bahwa metode ini memungkinkan untuk menempatkan kembali objek-objek ke dalam
cluster yang lebih dekat.
Interprestasi Analisis Cluster
Setelah cluster terbentuk, entah dengan metode hirarki atau non-hirarki, langkah selanjutnya
adalah melakukan interprestasi terhadap cluster yang terbentuk, yang pada intinya memberi
nama spesifik untuk menggambarkan isi cluster. Misalnya, kelompok konsumen yang
memperhatikan lingkungan sekitar sebelum membeli sebuah rumah bisa dinamai cluster
lingkungan.

Tahap validasi Cluster


Melakukan validasi dan profiling cluster. Cluster yang terbentuk kemudian diuji apakah hasil tersebut
valid. Kemudian dilakukan proses profiling untuk menjelaskan karakteristik setiap cluster berdasarkan
profil tertentu (seperti usia konsumen pembeli rumah, tingkat penghasilannya dan sebagainya). Analisis
cluster agak bersifat subjektif dalam penentuan penyelesaian cluster yang optimal, sehingga peneliti
seharusnya memberikan perhatian yang besar mengenai validasi dan jaminan tingkat signifikansi pada
penyelesaian akhir dari cluster. Meskipun tidak ada metode untuk menjamin validitas dan tingkat
signifikansi , beberapa pendekatan telah dikemukakan untuk memberikan dasar bagi perkiraan peneliti.

Validasi Hasil Cluster


Validasi termasuk usaha yang dilakukan oleh peneliti untuk menjamin bahwa hasil cluster
adalah representatif terhadap populasi secara umum, dan dengan demikian dapat
digeneralisasi untuk objek yang lain dan stabil untuk waktu tertentu. Pendekatan langsung
dalam hal ini adalah dengan analisis sample secara terpisah kemudian membandingkan
antara hasil cluster dengan perkiraan masing-masing cluster. Pendekatan ini sering tidak
praktis, karena adanya keterbatasan waktu dan biaya atau ketidaktersediaan objek untuk
perkalian analisis cluster. Dalam hal ini pendekatan tyang biasa digunakan adalah dengan
membagi sample menjadi dua kelompok. Masing-masing dianalisis cluster secara terpisah,
kemudian hasinya dibandingkan.

Profiling Hasil Cluster


Tahap Profiling meliputi penggambaran karakteristik masing-masing cluster untuk
menjelaskan bagaimana mereka bisa berbeda secara relevan pada tiap dimensi. Tipe ini
meliputi penggunaan analisis diskriminan. Prosedur dimulai setelah cluster ditentukan.
Peneliti menggunakan data yang sebelumnya tidak masuk dalam prosedur cluster untuk
menggambarkan karakteristik masing-masing cluster. Meskipun secara teori tidak masuk
akal (rasional) dalam perbedaan silang cluster, akan tetapi hal ini diperlukan untuk
memprediksi validasi taksiran, sehingga minimal penting secara praktek.

Asumsi Analisis Cluster


Untuk melakukan proses analisis cluster ini, ada asumsi yang harus terpenuhi, yaitu:
Sampel yang diambil benar-benar dapat mewakili populasi yang ada (representativeness of the sample)
dan Multikolinieritas. Sedangkan asumsi lainnya yang biasanya dilakukan pada analisis multivariat tidak
perlu dilakukan, seperti: Uji Normalitas, Uji Linearitas dan Uji Heteroskedastisitas.

Você também pode gostar