Kamis, 29 Agustus 2013

Analisis Regresi

Regresi linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh antara satu atau beberapa variabel terhadap satu buah variabel. Variabel yang mempengaruhi sering disebut variabel bebas, variabel independen atau variabel penjelas. Variabel yang dipengaruhi sering disebut dengan variabel terikat atau variabel dependen. Regresi linear hanya dapat digunakan pada skala interval dan ratio
Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu dengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi linear berganda dengan beberapa variabel bebas dan satu buah variabel terikat. Analisis regresi linear merupakan metode statistik yang paling jamak dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi. Program komputer yang paling banyak digunakan adalah SPSS (Statistical Package For Service Solutions).

Regresi Linear Sederhana
Analisis regresi linear sederhana dipergunakan untuk mengetahui pengaruh antara satu buah variabel bebas terhadap satu buah variabel terikat. Persamaan umumnya adalah:
Y = a + b X.
Dengan Y adalah variabel terikat dan X adalah variabel bebas. Koefisien a adalah konstanta (intercept) yang merupakan titik potong antara garis regresi dengan sumbu Y pada koordinat kartesius.

Langkah penghitungan analisis regresi dengan menggunakan program SPSS adalah: Analyse --> regression --> linear. Pada jendela yang ada, klik variabel terikat lalu klik tanda panah pada kota dependent. Maka variabel tersebut akan masuk ke kotak sebagai variabel dependen. Lakukan dengan cara yang sama untuk variabel bebas (independent). Lalu klik OK dan akan muncul output SPSS.

Interpretasi Output
  1. Koefisien determinasi
Koefisien determinasi mencerminkan seberapa besar kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya. Mempunyai nilai antara 0 – 1 di mana nilai yang mendekati 1 berarti semakin tinggi kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya.
  1. Nilai t hitung dan signifikansi
Nilai t hitung > t tabel berarti ada pengaruh yang signifikan antara variabel bebas terhadap variabel terikat, atau bisa juga dengan signifikansi di bawah 0,05 untuk penelitian sosial, dan untuk penelitian bursa kadang-kadang digunakan toleransi sampai dengan 0,10.
  1. Persamaan regresi
Sebagai ilustrasi variabel bebas: Biaya promosi dan variabel terikat: Profitabilitas (dalam juta rupiah) dan hasil analisisnya Y = 1,2 + 0,55 X. Berarti interpretasinya:
  1. Jika besarnya biaya promosi meningkat sebesar 1 juta rupiah, maka profitabilitas meningkat sebesar 0,55 juta rupiah.
  2. Jika biaya promosi bernilai nol, maka profitabilitas akan bernilai 1,2 juta rupiah.
Interpretasi terhadap nilai intercept (dalam contoh ini 1,2 juta) harus hati-hati dan sesuai dengan rancangan penelitian. Jika penelitian menggunakan angket dengan skala likert antara 1 sampai 5, maka interpretasi di atas tidak boleh dilakukan karena variabel X tidak mungkin bernilai nol. Interpretasi dengan skala likert tersebut sebaiknya menggunakan nilai standardized coefficient sehingga tidak ada konstanta karena nilainya telah distandarkan.
Contoh: Pengaruh antara kepuasan (X) terhadap kinerja (Y) dengan skala likert antara 1 sampai dengan 5. Hasil output yang digunakan adalah standardized coefficients sehingga Y = 0,21 X dan diinterpretasikan bahwa peningkatan kepuasan kerja akan diikuti dengan peningkatan kinerja atau penurunan kepuasan kerja juga akan diikuti dengan penurunan kinerja. Peningkatan kepuasan kerja dalam satu satuan unit akan diikuti dengan peningkatan kinerja sebesar 0,21 (21%).


Regresi Linear Berganda
Analisis regresi linear berganda sebenarnya sama dengan analisis regresi linear sederhana, hanya variabel bebasnya lebih dari satu buah. Persamaan umumnya adalah:
Y = a + b1 X1 + b2 X2 + .... + bn Xn.
Dengan Y adalah variabel bebas, dan X adalah variabel-variabel bebas, a adalah konstanta (intersept) dan b adalah koefisien regresi pada masing-masing variabel bebas.

Interpretasi terhadap persamaan juga relatif sama, sebagai ilustrasi, pengaruh antara motivasi (X1), kompensasi (X2) dan kepemimpinan (X3) terhadap kepuasan kerja (Y) menghasilkan persamaan sebagai berikut:
Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3
  1. Jika variabel motivasi meningkat dengan asumsi variabel kompensasi dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat
  2. Jika variabel kompensasi meningkat, dengan asumsi variabel motivasi dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat.
  3. Jika variabel kepemimpinan meningkat, dengan asumsi variabel motivasi dan kompensasi tetap, maka kepuasan kerja juga akan meningkat.
Interpretasi terhadap konstanta (0,235) juga harus dilakukan secara hati-hati. Jika pengukuran variabel dengan menggunakan skala Likert antara 1 sampai dengan 5 maka tidak boleh diinterpretasikan bahwa jika variabel motivasi, kompensasi dan kepemimpinan bernilai nol, sebagai ketiga variabel tersebut tidak mungkin bernilai nol karena Skala Likert terendah yang digunakan adalah 1.

Analisis regresi linear berganda memerlukan pengujian secara serempak dengan menggunakan F hitung. Signifikansi ditentukan dengan membandingkan F hitung dengan F tabel atau melihat signifikansi pada output SPSS. Dalam beberapa kasus dapat terjadi bahwa secara simultan (serempak) beberapa variabel mempunyai pengaruh yang signifikan, tetapi secara parsial tidak. Sebagai ilustrasi: seorang penjahat takut terhadap polisi yang membawa pistol (diasumsikan polisis dan pistol secara serempak membuat takut penjahat). Akan tetapi secara parsial, pistol tidak membuat takut seorang penjahat. Contoh lain: air panas, kopi dan gula menimbulkan kenikmatan, tetapi secara parsial, kopi saja belum tentu menimbulkan kenikmatan.

Penggunaan metode analisis regresi linear berganda memerlukan uji asumsi klasik yang secara statistik harus dipenuhi. Asumsi klasik yang sering digunakan adalah asumsi normalitas, multikolinearitas, autokorelasi, heteroskedastisitas dan asumsi linearitas..

Langkah-langkah yang lazim dipergunakan dalam analisis regresi linear berganda adalah 1) koefisien determinasi; 2) Uji F dan 3 ) uji t. Persamaan regresi sebaiknya dilakukan di akhir analisis karena interpretasi terhadap persamaan regresi akan lebih akurat jika telah diketahui signifikansinya. Koefisien determinasi sebaiknya menggunakan Adjusted R Square dan jika bernilai negatif maka uji F dan uji t tidak dapat dilakukan.

Bentuk-bentuk regresi yang juga sering digunakan dalam penelitian adalah
regresi logistik atau regresi ordinal.


Pertanyaan-pertanyaan yang sering muncul
  1. Dalam uji regresi sederhana apakah perlu menginterpretasikan nilai F hitung?
Uji F adalah uji kelayakan model (goodness of fit) yang harus dilakukan dalam analisis regresi linear. Untuk analisis regresi linear sederhana Uji F boleh dipergunakan atau tidak, karena uji F akan sama hasilnya dengan uji t.
  1. Kapan menggunakan uji satu arah dan kapan menggunakan uji dua arah?
Penentuan arah pengujian adalah berdasarkan masalah penelitian, tujuan penelitian dan perumusan hipotesis. Jika hipotesis sudah menentukan arahnya, maka sebaiknya digunakan uji satu arah, tetapi jika hipotesis belum menentukan arah, maka sebaiknya menggunakan uji dua arah. Penentuan arah pada hipotesis berdasarkan tinjauan literatur. Contoh hipotesis dua arah: Terdapat pengaruh antara kepuasan terhadap kinerja. Contoh hipotesis satu arah: Terdapat pengaruh positif antara kepuasan terhadap kinerja. Nilai t tabel juga berbeda antara satu arah dan dua arah. Jika menggunakan signifikansi, maka signifikansi hasil output dibagi dua terlebih dahulu, baru dibandingkan dengan 5%.
  1. Apa bedanya korelasi dengan regresi?
Korelasi adalah hubungan dan regresi adalah pengaruh. Korelasi bisa berlaku bolak-balik, sebagai contoh A berhubungan dengan B demikian juga B berhubungan dengan A. Untuk regresi tidak bisa dibalik, artinya A berpengaruh terhadap B, tetapi tidak boleh dikatakan B berpengaruh terhadap A. Dalam kehidupan sehari-hari kedua istilah itu (hubungan dan pengaruh) sering dipergunakan secara rancu, tetapi dalam ilmu statistik sangat berbeda. A berhubungan dengan B belum tentu A berpengaruh terhadap B. Tetapi jika A berpengaruh terhadap B maka pasti A juga berhubungan dengan B. (Dalam analisis lanjut sebenarnya juga ada pengaruh yang bolak-balik yang disebut dengan recursive, yang tidak dapat dianalisis dengan analisis regresi tetapi menggunakan (structural equation modelling).


2.1            Analisis Regresi Linier Ganda
Analisis regresi linier ganda terdiri dari satu variabel dependen dan beberapa variabel independen. Analisis regresi linier ganda dinyatakan dengan hubungan persamaan regresi:
Flowchart: Process:











(Sudjana 2005: 349).
Keterangan :
X1, X2, ..., Xk        : Variabel independen
Y                              : Variabel dependen
                          : Konstanta
       : Koefisien regresi
Pada analisis regresi linier ganda ada enam uji pokok, yaitu:
(1)    Uji Kelinieran
Hipotesis:
H0 : Persamaan regresi tidak linier
H1 : Persamaan regresi linier
Berdasarkan pengolahan data dengan SPSS, jika nilai sig pada output ANOVA lebih dari α (5%) maka H0 diterima (Trihendradi 2006: 157).
(2)    Uji Koefisien
Hipotesis:
H0 : Koefisien regresi tidak signifikan
H1 : Koefisien regresi signifikan
Berdasarkan pengolahan data dengan SPSS, jika nilai sig pada output Coefficients lebih dari α (5%) maka H0 diterima (Trihendradi 2006: 158).

(3)    Uji Normalitas Data
Berdasarkan teori statistika model linier hanya variabel dependen yang mempunyai distribusi diuji normalitasnya, sedangkan variabel independen diasumsikan bukan merupakan fungsi distribusi, jadi tidak perlu diuji normalitasnya. Salah satu cara untuk menguji kenormalan data yaitu dengan uji Kolmogorov-Smirnov.
Hipotesis:
H0 : Variabel adalah normal
H1 : Variabel adalah tidak normal
Berdasarkan pengolahan data dengan SPSS, jika nilai sig pada output NPar Tests lebih dari α (5%) maka H0 diterima.
Selain itu kenormalan data dapat juga dideteksi dari penyebaran data (titik) pada sumbu diagonal dari grafik atau melihat grafik histograf dari residualnya. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis histograf menuju pola distribusi normal, maka model regresi memenuhi asumsi normalitas (Sukestiyarno 2008: 14).
(4)    Uji Multikolinearitas
Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antara variabel bebas. Jadi uji multikolinearitas terjadi hanya pada regresi ganda. Model regresi yang baik seharusnya tidak terjadi korelasi tinggi diantara variabel bebas. Gejala multikolinearitas dapat dideteksi dengan melihat nilai Variance Inflasi Factor (VIF) dan tolerance pada output Coefficients. Multikolinearitas terjadi jika VIF berada di atas 10 dan nilai tolerance di atas 1 (Sukestiyarno 2008: 14).
(5)    Uji Autokorelasi
Uji autokorelasi bertujuan menguji apakah dalam model regresi linier ada korelasi antar error satu dengan error yang lainnya. Gejala autokorelasi dapat dideteksi dengan menggunakan uji Durbin Watson (DW) pada output Model Summary. Ketentuan jika -2 < DW < 2 berarti tidak terjadi autokorelasi (Sukestiyarno 2008: 14).
(6)    Uji Heteroskedastisitas
Heteroskedastisitas terjadi apabila error atau residual dari model yang diamati tidak memiliki varian yang konstan dari satu observasi ke observasi lainnya. Pengujian heteroskedastisitas dilakukan dengan melihat diagram residual terhadap variabel bebas pada output Scatterplot. Jika nilai error membentuk pola tertentu tidak bersifat acak terhadap nol maka dikatakan terjadi heteroskedasti (Sukestiyarno 2008: 14).
Model persamaan regresi linier ganda dapat dilihat pada output Coefficients. Sedangkan untuk mengetahui besarnya nilai kontribusi variabel bebas secara bersama-sama terhadap variabel terikat dapat dilihat pada output Model Summary (Sukestiyarno 2008: 19).



DAFTAR PUSTAKA

Sudjana. 2005. Metoda Statistika. Bandung: Tarsito.

Sugiyono. 2004. Statistik Nonparametris. Bandung: CV Alfabeta.

Sukestiyarno. 2008. Workshop Olah Data Penelitian dengan SPSS. Semarang: UNNES.

Trihendradi, C. 2006. Langkah Mudah Menguasai Analisis Statistik Menggunakan SPSS 15. Yogyakarta: Andi Offset.



Regresi linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh antara satu atau beberapa variabel terhadap satu buah variabel. Variabel yang mempengaruhi sering disebut variabel bebas, variabel independen atau variabel penjelas. Variabel yang dipengaruhi sering disebut dengan variabel terikat atau variabel dependen. Regresi linear hanya dapat digunakan pada skala interval dan ratio
Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu dengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi linear berganda dengan beberapa variabel bebas dan satu buah variabel terikat. Analisis regresi linear merupakan metode statistik yang paling jamak dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi. Program komputer yang paling banyak digunakan adalah SPSS (Statistical Package For Service Solutions).

Regresi Linear Sederhana
Analisis regresi linear sederhana dipergunakan untuk mengetahui pengaruh antara satu buah variabel bebas terhadap satu buah variabel terikat. Persamaan umumnya adalah:
Y = a + b X.
Dengan Y adalah variabel terikat dan X adalah variabel bebas. Koefisien a adalah konstanta (intercept) yang merupakan titik potong antara garis regresi dengan sumbu Y pada koordinat kartesius.

Langkah penghitungan analisis regresi dengan menggunakan program SPSS adalah: Analyse --> regression --> linear. Pada jendela yang ada, klik variabel terikat lalu klik tanda panah pada kota dependent. Maka variabel tersebut akan masuk ke kotak sebagai variabel dependen. Lakukan dengan cara yang sama untuk variabel bebas (independent). Lalu klik OK dan akan muncul output SPSS.

Interpretasi Output
  1. Koefisien determinasi
Koefisien determinasi mencerminkan seberapa besar kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya. Mempunyai nilai antara 0 – 1 di mana nilai yang mendekati 1 berarti semakin tinggi kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya.
  1. Nilai t hitung dan signifikansi
Nilai t hitung > t tabel berarti ada pengaruh yang signifikan antara variabel bebas terhadap variabel terikat, atau bisa juga dengan signifikansi di bawah 0,05 untuk penelitian sosial, dan untuk penelitian bursa kadang-kadang digunakan toleransi sampai dengan 0,10.
  1. Persamaan regresi
Sebagai ilustrasi variabel bebas: Biaya promosi dan variabel terikat: Profitabilitas (dalam juta rupiah) dan hasil analisisnya Y = 1,2 + 0,55 X. Berarti interpretasinya:
  1. Jika besarnya biaya promosi meningkat sebesar 1 juta rupiah, maka profitabilitas meningkat sebesar 0,55 juta rupiah.
  2. Jika biaya promosi bernilai nol, maka profitabilitas akan bernilai 1,2 juta rupiah.
Interpretasi terhadap nilai intercept (dalam contoh ini 1,2 juta) harus hati-hati dan sesuai dengan rancangan penelitian. Jika penelitian menggunakan angket dengan skala likert antara 1 sampai 5, maka interpretasi di atas tidak boleh dilakukan karena variabel X tidak mungkin bernilai nol. Interpretasi dengan skala likert tersebut sebaiknya menggunakan nilai standardized coefficient sehingga tidak ada konstanta karena nilainya telah distandarkan.
Contoh: Pengaruh antara kepuasan (X) terhadap kinerja (Y) dengan skala likert antara 1 sampai dengan 5. Hasil output yang digunakan adalah standardized coefficients sehingga Y = 0,21 X dan diinterpretasikan bahwa peningkatan kepuasan kerja akan diikuti dengan peningkatan kinerja atau penurunan kepuasan kerja juga akan diikuti dengan penurunan kinerja. Peningkatan kepuasan kerja dalam satu satuan unit akan diikuti dengan peningkatan kinerja sebesar 0,21 (21%).


Regresi Linear Berganda
Analisis regresi linear berganda sebenarnya sama dengan analisis regresi linear sederhana, hanya variabel bebasnya lebih dari satu buah. Persamaan umumnya adalah:
Y = a + b1 X1 + b2 X2 + .... + bn Xn.
Dengan Y adalah variabel bebas, dan X adalah variabel-variabel bebas, a adalah konstanta (intersept) dan b adalah koefisien regresi pada masing-masing variabel bebas.

Interpretasi terhadap persamaan juga relatif sama, sebagai ilustrasi, pengaruh antara motivasi (X1), kompensasi (X2) dan kepemimpinan (X3) terhadap kepuasan kerja (Y) menghasilkan persamaan sebagai berikut:
Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3
  1. Jika variabel motivasi meningkat dengan asumsi variabel kompensasi dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat
  2. Jika variabel kompensasi meningkat, dengan asumsi variabel motivasi dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat.
  3. Jika variabel kepemimpinan meningkat, dengan asumsi variabel motivasi dan kompensasi tetap, maka kepuasan kerja juga akan meningkat.
Interpretasi terhadap konstanta (0,235) juga harus dilakukan secara hati-hati. Jika pengukuran variabel dengan menggunakan skala Likert antara 1 sampai dengan 5 maka tidak boleh diinterpretasikan bahwa jika variabel motivasi, kompensasi dan kepemimpinan bernilai nol, sebagai ketiga variabel tersebut tidak mungkin bernilai nol karena Skala Likert terendah yang digunakan adalah 1.

Analisis regresi linear berganda memerlukan pengujian secara serempak dengan menggunakan F hitung. Signifikansi ditentukan dengan membandingkan F hitung dengan F tabel atau melihat signifikansi pada output SPSS. Dalam beberapa kasus dapat terjadi bahwa secara simultan (serempak) beberapa variabel mempunyai pengaruh yang signifikan, tetapi secara parsial tidak. Sebagai ilustrasi: seorang penjahat takut terhadap polisi yang membawa pistol (diasumsikan polisis dan pistol secara serempak membuat takut penjahat). Akan tetapi secara parsial, pistol tidak membuat takut seorang penjahat. Contoh lain: air panas, kopi dan gula menimbulkan kenikmatan, tetapi secara parsial, kopi saja belum tentu menimbulkan kenikmatan.

Penggunaan metode analisis regresi linear berganda memerlukan uji asumsi klasik yang secara statistik harus dipenuhi. Asumsi klasik yang sering digunakan adalah asumsi normalitas, multikolinearitas, autokorelasi, heteroskedastisitas dan asumsi linearitas..

Langkah-langkah yang lazim dipergunakan dalam analisis regresi linear berganda adalah 1) koefisien determinasi; 2) Uji F dan 3 ) uji t. Persamaan regresi sebaiknya dilakukan di akhir analisis karena interpretasi terhadap persamaan regresi akan lebih akurat jika telah diketahui signifikansinya. Koefisien determinasi sebaiknya menggunakan Adjusted R Square dan jika bernilai negatif maka uji F dan uji t tidak dapat dilakukan.

Bentuk-bentuk regresi yang juga sering digunakan dalam penelitian adalah
regresi logistik atau regresi ordinal.


Pertanyaan-pertanyaan yang sering muncul
  1. Dalam uji regresi sederhana apakah perlu menginterpretasikan nilai F hitung?
Uji F adalah uji kelayakan model (goodness of fit) yang harus dilakukan dalam analisis regresi linear. Untuk analisis regresi linear sederhana Uji F boleh dipergunakan atau tidak, karena uji F akan sama hasilnya dengan uji t.
  1. Kapan menggunakan uji satu arah dan kapan menggunakan uji dua arah?
Penentuan arah pengujian adalah berdasarkan masalah penelitian, tujuan penelitian dan perumusan hipotesis. Jika hipotesis sudah menentukan arahnya, maka sebaiknya digunakan uji satu arah, tetapi jika hipotesis belum menentukan arah, maka sebaiknya menggunakan uji dua arah. Penentuan arah pada hipotesis berdasarkan tinjauan literatur. Contoh hipotesis dua arah: Terdapat pengaruh antara kepuasan terhadap kinerja. Contoh hipotesis satu arah: Terdapat pengaruh positif antara kepuasan terhadap kinerja. Nilai t tabel juga berbeda antara satu arah dan dua arah. Jika menggunakan signifikansi, maka signifikansi hasil output dibagi dua terlebih dahulu, baru dibandingkan dengan 5%.
  1. Apa bedanya korelasi dengan regresi?
Korelasi adalah hubungan dan regresi adalah pengaruh. Korelasi bisa berlaku bolak-balik, sebagai contoh A berhubungan dengan B demikian juga B berhubungan dengan A. Untuk regresi tidak bisa dibalik, artinya A berpengaruh terhadap B, tetapi tidak boleh dikatakan B berpengaruh terhadap A. Dalam kehidupan sehari-hari kedua istilah itu (hubungan dan pengaruh) sering dipergunakan secara rancu, tetapi dalam ilmu statistik sangat berbeda. A berhubungan dengan B belum tentu A berpengaruh terhadap B. Tetapi jika A berpengaruh terhadap B maka pasti A juga berhubungan dengan B. (Dalam analisis lanjut sebenarnya juga ada pengaruh yang bolak-balik yang disebut dengan recursive, yang tidak dapat dianalisis dengan analisis regresi tetapi menggunakan (structural equation modelling).


2.1            Analisis Regresi Linier Ganda
Analisis regresi linier ganda terdiri dari satu variabel dependen dan beberapa variabel independen. Analisis regresi linier ganda dinyatakan dengan hubungan persamaan regresi:


Flowchart: Process:


(Sudjana 2005: 349).
Keterangan :
X1, X2, ..., Xk        : Variabel independen
Y                              : Variabel dependen
                          : Konstanta
       : Koefisien regresi
Pada analisis regresi linier ganda ada enam uji pokok, yaitu:
(1)    Uji Kelinieran
Hipotesis:
H0 : Persamaan regresi tidak linier
H1 : Persamaan regresi linier
Berdasarkan pengolahan data dengan SPSS, jika nilai sig pada output ANOVA lebih dari α (5%) maka H0 diterima (Trihendradi 2006: 157).
(2)    Uji Koefisien
Hipotesis:
H0 : Koefisien regresi tidak signifikan
H1 : Koefisien regresi signifikan
Berdasarkan pengolahan data dengan SPSS, jika nilai sig pada output Coefficients lebih dari α (5%) maka H0 diterima (Trihendradi 2006: 158).

(3)    Uji Normalitas Data
Berdasarkan teori statistika model linier hanya variabel dependen yang mempunyai distribusi diuji normalitasnya, sedangkan variabel independen diasumsikan bukan merupakan fungsi distribusi, jadi tidak perlu diuji normalitasnya. Salah satu cara untuk menguji kenormalan data yaitu dengan uji Kolmogorov-Smirnov.
Hipotesis:
H0 : Variabel adalah normal
H1 : Variabel adalah tidak normal
Berdasarkan pengolahan data dengan SPSS, jika nilai sig pada output NPar Tests lebih dari α (5%) maka H0 diterima.
Selain itu kenormalan data dapat juga dideteksi dari penyebaran data (titik) pada sumbu diagonal dari grafik atau melihat grafik histograf dari residualnya. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis histograf menuju pola distribusi normal, maka model regresi memenuhi asumsi normalitas (Sukestiyarno 2008: 14).
(4)    Uji Multikolinearitas
Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antara variabel bebas. Jadi uji multikolinearitas terjadi hanya pada regresi ganda. Model regresi yang baik seharusnya tidak terjadi korelasi tinggi diantara variabel bebas. Gejala multikolinearitas dapat dideteksi dengan melihat nilai Variance Inflasi Factor (VIF) dan tolerance pada output Coefficients. Multikolinearitas terjadi jika VIF berada di atas 10 dan nilai tolerance di atas 1 (Sukestiyarno 2008: 14).
(5)    Uji Autokorelasi
Uji autokorelasi bertujuan menguji apakah dalam model regresi linier ada korelasi antar error satu dengan error yang lainnya. Gejala autokorelasi dapat dideteksi dengan menggunakan uji Durbin Watson (DW) pada output Model Summary. Ketentuan jika -2 < DW < 2 berarti tidak terjadi autokorelasi (Sukestiyarno 2008: 14).
(6)    Uji Heteroskedastisitas
Heteroskedastisitas terjadi apabila error atau residual dari model yang diamati tidak memiliki varian yang konstan dari satu observasi ke observasi lainnya. Pengujian heteroskedastisitas dilakukan dengan melihat diagram residual terhadap variabel bebas pada output Scatterplot. Jika nilai error membentuk pola tertentu tidak bersifat acak terhadap nol maka dikatakan terjadi heteroskedasti (Sukestiyarno 2008: 14).
Model persamaan regresi linier ganda dapat dilihat pada output Coefficients. Sedangkan untuk mengetahui besarnya nilai kontribusi variabel bebas secara bersama-sama terhadap variabel terikat dapat dilihat pada output Model Summary (Sukestiyarno 2008: 19).


DAFTAR PUSTAKA

Sudjana. 2005. Metoda Statistika. Bandung: Tarsito.

Sugiyono. 2004. Statistik Nonparametris. Bandung: CV Alfabeta.

Sukestiyarno. 2008. Workshop Olah Data Penelitian dengan SPSS. Semarang: UNNES.

Trihendradi, C. 2006. Langkah Mudah Menguasai Analisis Statistik Menggunakan SPSS 15. Yogyakarta: Andi Offset.