Você está na página 1de 5

ANALISIS REGRESI

1.

Pendahuluan Istilah regresi pertama kali diperkenalkan oleh Sir Francis Galton pada tahun 1886. Analisis regresi pada dasarnya adalah studi mengenai ketergantungan variabel dependen (terikat) dengan satu atau lebih variabel independen (variabel penjelas/bebas), dengan tujuan untuk mengestimasi dan/atau memprediksi rata-rata populasi atau nilai rata-rata variabel dependen berdasarkan nilai variabel independen yang diketahui. Hasil analisis regresi adalah berupa koefisien untuk masing-masing variabel independen. Koefisien ini diperoleh dengan cara memprediksi nilai variabel dependen dengan suat persamaan. Koefisien regresi dihitung dengan dua tujuan sekaligus: pertama,

meminimumkan penyimpangan antara nilai aktual dengan nilai estimasi variabel dependen berdasarkan data yang ada. Dalam analisis regresi, selain mengukur kekuatan hubungan antara dua variabel atau lebih juga menunjukkan arah hubungan antara variabel dependen dengan variabel independen. Variabel dependen diasumsikan random/stokastik, yang berarti mempunyai distribusi probabilistik. Variabel independen/bebas diasumsikan memiliki nilai tetap (dalam pengambilan sampel yang berulang).

2.

Regresi vs korelasi Korelasi bertujuan untuk mengukur kekuatan hubungan linier antara dua variabel. Korelasi tidak menunjukkan hubungan fungsional atau dengan kata lain analisis korelasi tidak membedakan variabel dependen dan independen. Dalam analisis regresi, selain mengukur kekuatan hubungan dua variabel atau lebih, juga menunjukkan arah hubungan antara variabel dependen dan independen Teknik estimasi variabel dependen yang melandasi analisis regresi disebut ordinary least squares (OLS). Inti metode OLS adalan mengestimasi suatu garis regresi dengan jalan meminimalkan jumlah dari kuadrat kesalahan setiap observasi terhadap garis tersebut.

3.

Asumsi OrdinaryLeastSquares

Teknik estimasi variabel dependen yang melandasi analisis regresi disebut pangkat kuadrat terkecil biasa (OrdinaryLeastSquares). Metode OrdinaryLeastSquares (OLS) diperkenalkan pertama kali oleh Cari Friedrich Gauss, seorang ahli matematika dari Jerman. Inti metode OLS adalah mengestimasi suatu garis regresi dengan jalan meminimalkan jumlah dari kuadrat kesalahan setiap observasi terhadap garis tersebut. Menurut Gujarati (2003) asumsi utama yang mendasari model regresi linear klasik dengan menggunakan model OLS adalah: a. Model regresi linear, artinya linear dalam parameter seperti dalam persamaan di bawah ini : Yi = b1+b2Xi + ui b. Nilai X diasumsikan non-stokastik, artinya nilai X dianggap tetap dalam sampel yang berulang. c. d. Nilai rata-rata kesalahan adalah nol, atau E(ui/Xi) = 0. Homoskedastisitas, artinya variasi kesalahan sama untuk setiap periode (Homo = sama, Skedastisitas = sebaran) dan dinyatakan dalam bentuk matematis Var (ui/Xi) = 2. e. Tidak ada autokorelasi antar kesalahan (antara ui dan uj tidak ada korelasi) atau secara matematis Cov (ui,uj/Xi,Xj) = 0. f. g. Antara ui dan Xi saling bebas, sehingga Cov (ui/Xi) = 0. Jumlah observasi (n) harus lebih besar daripada jumlah parameter yang diestimasi (jumlah variabel bebas). h. i. Adanya variabilitas dalam nilai X, artinya nilai X harus berbeda. Model regresi telah dispesifikasi secara benar. Dengan kata lain tidak ada bias (kesalahan) spesifikasi dalam model yang digunakan dalam analisis empirik. j. Tidak ada multikolinearitas yang sempurna antar Variabel bebas.

4.

Menilai Goodness of Fit Model Ketepatan fungsi regresi sampel dalam menaksir nilai aktual dapat diukur dari goodness of fit-nya. Secara statistik, setidaknya ini dapat diukur dari nilai koefisien determinasi, nilai statistik F dan nilai statistik t. Perhitungan statistik disebut signifikan secara statistik apabila nilai uji statistiknya berada dalam daerah kritis (daerah dimana H0 ditolak). Sebaliknya disebut tidak signifikan bila nilai uji statistiknya berada dalam daerah dimana H0 diterima.

a.

Koefisien Determinasi Koefisien determinasi (R2) pada intinya mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel dependen. Nilai koefisien determinasi adalah antara nol dan satu. Nilai R2 yang kecil berarti kemampuan variabel-variabel independen dalam menjelaskan variasi variabel dependen amat terbatas. Nilai yang mendekati satu berarti variabel-variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variasi variabel dependen. Secara umum koefisien determinasi untuk data silang (crosssection) relatif rendah karena adanya variasi yang besar antara masing-masing pengamatan, sedangkan untuk data runtun waktu (timeseries) biasanya mempunyai nilai koefisien determinasi yang tinggi. Kelemahan mendasar penggunaan koefisien determinasi adalah bias terhadap jumlah variabel independen yang dimasukkan ke dalam model. Setiap tambahan satu variabel independen, maka R2 pasti meningkat tidak peduli apakah variabel tersebut berpengaruh secara signifikan terhadap variabel dependen. Oleh karena itu banyak peneliti menganjurkan untuk menggunakan nilai adjusted R2 pada saat mengevaluasi mana model regresi terbaik. Tidak seperti R2, nilai adjusted R2 dapat naik atau turun apabila satu variabel independen ditambahkan ke dalam model. Dalam kenyataan nilai adjusted R2 dapat bernilai negatif, walaupun yang dikehendaki harus bernilai positif. Menurut Gujarati (2003) jika dalam uji empiris didapat nilai adjusted R2 negatif, maka nilai adjusted R2 dianggap bernilai nol. Secara matematis jika nilai R2 = 1, maka adjusted R2 = R2 = 1 sedangkan jika nilaiR2 = 0, maka adjusted R2= (1 - k)/(n - k). Jika k > 1, maka adjusted R2 akan bernilai negatif.

b. Uji Signifikansi Simultan (Uji F) Uji statistik F pada dasarnya menunjukkan apakah semua variabel independen atau bebas yang dimasukkan dalam model mempunyai pengaruh secara bersama-sama terhadap variabel dependen/terikat. Hipotesis nol (H0) yang hendak diuji adalah apakah semua parameter dalam model sama dengan nol, atau: H0 : b1 = b2 = ...... =bk = 0

Artinya, apakah semua variabel independen bukan merupakan penjelas yang signifikan terhadap variabel dependen. Hipotesis alternatifnya (H1) tidak semua parameter secara simultan sama dengan nol, atau: H1: b1 b2 ...... bk 0 Artinya semua variabel independen secara simultan merupakan penjelas yang signifikan terhadap variabel dependen. Untuk menguji hipotesis ini digunakan statistik F dengan kriteria pengambilan keputusan sebagai berikut:

Quicklook: bila nilai F lebih besar daripada 4 maka H0 dapat ditolak pada derajat kepercayaan 5%., Dengan kata lain kita menerima hipotesis alternatif, yang menyatakan bahwa semua variabel independen secara serentak dan signifikan mempengaruhi variabel dependen.

Membandingkan nilai F hasil perhitungan dengan nilai F menurut tabel. Bila nilai F hitung lebih besar dari nilai F tabel, maka H0 ditolak dan H1 diterima.

c.

Uji Signifikansi Parsial (Uji t) Uji statistik t pada dasarnya menunjukkan seberapa jauh pengaruh satu variabel penjelas/independen secara individual dalam menerangkan variasi variabel dependen. Hipotesis nol (H0) yang hendak diuji adalah apakah suatu parameter (bi) sama dengan nol, atau : H0 : bi = 0 Artinya apakah suatu variabel independen bukan merupakan penjelas yang signifikan terhadap variabel dependen. Hipotesis alternatifnya (H1) parameter suatu variabel tidak sama dengan nol, atau: HA : bi 0 Artinya, variabel tersebut merupakan penjelas yang signifikan terhadap variabel dependen.

Cara melakukan uji t adalah sebagai berikut:

Quicklook: bila jumlah degree of freedom (df) adalah 20 atau lebih, dan derajat kepercayaan sebesar 5%, maka H0 yang menyatakan bi = 0 dapat ditolak bila nilai t lebih besar dari 2 (dalam nilai absolut). Dengan kata lain kita menerima hipotesis alternatif, yang menyatakan bahwa suatu variabel independen secara individual mempengaruhi variabel dependen.

Membandingkan nilai statistik t dengan titik kritis menurut tabel. Apabila nilai statistik t hasil perhitungan lebih tinggi dibandingkan nilai t tabel, kita menerima hipotesis alternatif yang menyatakan bahwa suatu variabel independen secara individual mempengaruhi variabel dependen.

Você também pode gostar