Regresi
linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh antara
satu atau beberapa variabel terhadap satu buah variabel. Variabel yang
mempengaruhi sering disebut variabel bebas, variabel independen atau variabel
penjelas. Variabel yang dipengaruhi sering disebut dengan variabel terikat atau
variabel dependen. Regresi linear hanya dapat digunakan pada skala interval dan ratio
Secara
umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu
dengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi
linear berganda dengan beberapa variabel bebas dan satu buah variabel terikat.
Analisis regresi linear merupakan metode statistik yang paling jamak
dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi.
Program komputer yang paling banyak digunakan adalah SPSS (Statistical Package For Service Solutions).
Regresi
Linear Sederhana
Analisis
regresi linear sederhana dipergunakan untuk mengetahui pengaruh antara satu
buah variabel bebas terhadap satu buah variabel terikat. Persamaan umumnya
adalah:
Y = a + b X.
Dengan Y
adalah variabel terikat dan X adalah variabel bebas. Koefisien a adalah
konstanta (intercept) yang merupakan titik potong antara garis regresi dengan
sumbu Y pada koordinat kartesius.
Langkah
penghitungan analisis regresi dengan menggunakan program SPSS adalah: Analyse
--> regression --> linear. Pada jendela yang ada, klik variabel terikat
lalu klik tanda panah pada kota dependent. Maka variabel tersebut akan masuk ke
kotak sebagai variabel dependen. Lakukan dengan cara yang sama untuk variabel
bebas (independent). Lalu klik OK dan akan muncul output SPSS.
Interpretasi
Output
- Koefisien determinasi
Koefisien determinasi mencerminkan seberapa besar
kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya.
Mempunyai nilai antara 0 – 1 di mana nilai yang mendekati 1 berarti semakin
tinggi kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya.
- Nilai t hitung dan signifikansi
Nilai t
hitung > t tabel berarti ada pengaruh yang signifikan antara variabel bebas
terhadap variabel terikat, atau bisa juga dengan signifikansi di bawah 0,05
untuk penelitian sosial, dan untuk penelitian bursa kadang-kadang digunakan
toleransi sampai dengan 0,10.
- Persamaan regresi
Sebagai
ilustrasi variabel bebas: Biaya promosi dan variabel terikat: Profitabilitas
(dalam juta rupiah) dan hasil analisisnya Y = 1,2 + 0,55 X. Berarti
interpretasinya:
- Jika besarnya biaya promosi
meningkat sebesar 1 juta rupiah, maka profitabilitas meningkat sebesar
0,55 juta rupiah.
- Jika biaya promosi bernilai
nol, maka profitabilitas akan bernilai 1,2 juta rupiah.
Interpretasi
terhadap nilai intercept (dalam contoh ini 1,2 juta) harus hati-hati dan sesuai
dengan rancangan penelitian. Jika penelitian menggunakan angket dengan skala
likert antara 1 sampai 5, maka interpretasi di atas tidak boleh dilakukan
karena variabel X tidak mungkin bernilai nol. Interpretasi dengan skala likert
tersebut sebaiknya menggunakan nilai standardized coefficient sehingga
tidak ada konstanta karena nilainya telah distandarkan.
Contoh:
Pengaruh antara kepuasan (X) terhadap kinerja (Y) dengan skala likert antara 1
sampai dengan 5. Hasil output yang digunakan adalah standardized
coefficients sehingga Y = 0,21 X dan diinterpretasikan bahwa peningkatan
kepuasan kerja akan diikuti dengan peningkatan kinerja atau penurunan kepuasan
kerja juga akan diikuti dengan penurunan kinerja. Peningkatan kepuasan kerja
dalam satu satuan unit akan diikuti dengan peningkatan kinerja sebesar 0,21
(21%).
Regresi
Linear Berganda
Analisis
regresi linear berganda sebenarnya sama dengan analisis regresi linear
sederhana, hanya variabel bebasnya lebih dari satu buah. Persamaan umumnya adalah:
Y = a + b1 X1 + b2 X2
+ .... + bn Xn.
Dengan Y
adalah variabel bebas, dan X adalah variabel-variabel bebas, a adalah konstanta
(intersept) dan b adalah koefisien regresi pada masing-masing variabel bebas.
Interpretasi
terhadap persamaan juga relatif sama, sebagai ilustrasi, pengaruh antara
motivasi (X1), kompensasi (X2) dan kepemimpinan (X3) terhadap kepuasan kerja
(Y) menghasilkan persamaan sebagai berikut:
Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3
- Jika variabel motivasi
meningkat dengan asumsi variabel kompensasi dan kepemimpinan tetap, maka
kepuasan kerja juga akan meningkat
- Jika variabel kompensasi
meningkat, dengan asumsi variabel motivasi dan kepemimpinan tetap, maka
kepuasan kerja juga akan meningkat.
- Jika variabel kepemimpinan
meningkat, dengan asumsi variabel motivasi dan kompensasi tetap, maka
kepuasan kerja juga akan meningkat.
Interpretasi
terhadap konstanta (0,235) juga harus dilakukan secara hati-hati. Jika
pengukuran variabel dengan menggunakan skala Likert antara 1 sampai dengan 5
maka tidak boleh diinterpretasikan bahwa jika variabel motivasi, kompensasi dan
kepemimpinan bernilai nol, sebagai ketiga variabel tersebut tidak mungkin
bernilai nol karena Skala Likert terendah yang digunakan adalah 1.
Analisis
regresi linear berganda memerlukan pengujian secara serempak dengan menggunakan
F hitung. Signifikansi ditentukan dengan membandingkan F hitung dengan F tabel
atau melihat signifikansi pada output SPSS. Dalam beberapa kasus dapat terjadi
bahwa secara simultan (serempak) beberapa variabel mempunyai pengaruh yang
signifikan, tetapi secara parsial tidak. Sebagai ilustrasi: seorang penjahat
takut terhadap polisi yang membawa pistol (diasumsikan polisis dan pistol
secara serempak membuat takut penjahat). Akan tetapi secara parsial, pistol tidak
membuat takut seorang penjahat. Contoh lain: air panas, kopi dan gula
menimbulkan kenikmatan, tetapi secara parsial, kopi saja belum tentu
menimbulkan kenikmatan.
Penggunaan
metode analisis regresi linear berganda memerlukan uji asumsi klasik yang secara statistik harus
dipenuhi. Asumsi klasik yang sering digunakan adalah asumsi normalitas,
multikolinearitas, autokorelasi, heteroskedastisitas dan asumsi linearitas..
Langkah-langkah
yang lazim dipergunakan dalam analisis regresi linear berganda adalah 1) koefisien determinasi; 2) Uji F dan 3 ) uji t. Persamaan
regresi sebaiknya dilakukan di akhir analisis karena interpretasi terhadap
persamaan regresi akan lebih akurat jika telah diketahui signifikansinya.
Koefisien determinasi sebaiknya menggunakan Adjusted R Square dan jika bernilai negatif maka uji
F dan uji t tidak dapat dilakukan.
Bentuk-bentuk regresi yang juga sering digunakan dalam penelitian adalah regresi logistik atau regresi ordinal.
Bentuk-bentuk regresi yang juga sering digunakan dalam penelitian adalah regresi logistik atau regresi ordinal.
Pertanyaan-pertanyaan
yang sering muncul
- Dalam uji regresi sederhana
apakah perlu menginterpretasikan nilai F hitung?
Uji F
adalah uji kelayakan model (goodness of fit) yang harus dilakukan dalam
analisis regresi linear. Untuk analisis regresi linear sederhana Uji F boleh
dipergunakan atau tidak, karena uji F akan sama hasilnya dengan uji t.
- Kapan menggunakan uji satu arah dan kapan menggunakan uji dua arah?
Penentuan arah pengujian adalah berdasarkan masalah penelitian,
tujuan penelitian dan perumusan hipotesis. Jika hipotesis sudah menentukan
arahnya, maka sebaiknya digunakan uji satu arah, tetapi jika hipotesis belum
menentukan arah, maka sebaiknya menggunakan uji dua arah. Penentuan arah pada
hipotesis berdasarkan tinjauan literatur. Contoh hipotesis dua arah: Terdapat
pengaruh antara kepuasan terhadap kinerja. Contoh hipotesis satu arah: Terdapat
pengaruh positif antara kepuasan terhadap kinerja. Nilai t tabel juga berbeda
antara satu arah dan dua arah. Jika menggunakan signifikansi, maka signifikansi
hasil output dibagi dua terlebih dahulu, baru dibandingkan dengan 5%.
- Apa bedanya korelasi dengan
regresi?
Korelasi adalah hubungan dan regresi adalah pengaruh. Korelasi bisa
berlaku bolak-balik, sebagai contoh A berhubungan dengan B demikian juga B
berhubungan dengan A. Untuk regresi tidak bisa dibalik, artinya A berpengaruh
terhadap B, tetapi tidak boleh dikatakan B berpengaruh terhadap A. Dalam
kehidupan sehari-hari kedua istilah itu (hubungan dan pengaruh) sering
dipergunakan secara rancu, tetapi dalam ilmu statistik sangat berbeda. A
berhubungan dengan B belum tentu A berpengaruh terhadap B. Tetapi jika A
berpengaruh terhadap B maka pasti A juga berhubungan dengan B. (Dalam analisis
lanjut sebenarnya juga ada pengaruh yang bolak-balik yang disebut dengan recursive,
yang tidak dapat dianalisis dengan analisis regresi tetapi menggunakan (structural equation
modelling).
2.1
Analisis Regresi Linier Ganda
Analisis regresi linier ganda terdiri dari satu variabel
dependen dan beberapa variabel independen. Analisis regresi linier ganda
dinyatakan dengan hubungan persamaan regresi:
![]() |
||
![]() |
||
![]() |

(Sudjana 2005:
349).
Keterangan :
X1, X2,
..., Xk : Variabel independen
Y : Variabel dependen


Pada analisis regresi linier ganda ada enam uji pokok,
yaitu:
(1) Uji Kelinieran
Hipotesis:
H0 : Persamaan
regresi tidak linier
H1 : Persamaan
regresi linier
Berdasarkan pengolahan data dengan SPSS, jika nilai sig
pada output ANOVA lebih dari α (5%) maka H0 diterima
(Trihendradi 2006: 157).
(2) Uji Koefisien
Hipotesis:
H0 : Koefisien
regresi tidak signifikan
H1 : Koefisien regresi signifikan
Berdasarkan pengolahan data dengan SPSS, jika nilai sig
pada output Coefficients lebih dari α (5%) maka H0 diterima
(Trihendradi 2006: 158).
(3) Uji Normalitas Data
Berdasarkan teori statistika model linier hanya variabel
dependen yang mempunyai distribusi diuji normalitasnya, sedangkan variabel
independen diasumsikan bukan merupakan fungsi distribusi, jadi tidak perlu
diuji normalitasnya. Salah satu cara untuk menguji kenormalan data yaitu dengan
uji Kolmogorov-Smirnov.
Hipotesis:
H0 : Variabel
adalah normal
H1 : Variabel adalah tidak normal
Berdasarkan pengolahan data dengan SPSS, jika nilai sig
pada output NPar Tests lebih dari α (5%) maka H0 diterima.
Selain itu kenormalan data dapat juga dideteksi dari
penyebaran data (titik) pada sumbu diagonal dari grafik atau melihat grafik
histograf dari residualnya. Jika data menyebar di sekitar garis diagonal dan
mengikuti arah garis histograf menuju pola distribusi normal, maka model
regresi memenuhi asumsi normalitas (Sukestiyarno 2008: 14).
(4) Uji Multikolinearitas
Uji multikolinearitas bertujuan untuk menguji apakah
model regresi ditemukan adanya korelasi antara variabel bebas. Jadi uji
multikolinearitas terjadi hanya pada regresi ganda. Model regresi yang baik
seharusnya tidak terjadi korelasi tinggi diantara variabel bebas. Gejala
multikolinearitas dapat dideteksi dengan melihat nilai Variance Inflasi
Factor (VIF) dan tolerance pada output Coefficients.
Multikolinearitas terjadi jika VIF berada di atas 10 dan nilai tolerance
di atas 1 (Sukestiyarno 2008: 14).
(5) Uji Autokorelasi
Uji autokorelasi bertujuan menguji apakah dalam model
regresi linier ada korelasi antar error satu dengan error yang
lainnya. Gejala autokorelasi dapat dideteksi dengan menggunakan uji Durbin
Watson (DW) pada output Model Summary. Ketentuan jika -2 < DW < 2
berarti tidak terjadi autokorelasi (Sukestiyarno 2008: 14).
(6)
Uji Heteroskedastisitas
Heteroskedastisitas terjadi apabila error atau residual
dari model yang diamati tidak memiliki varian yang konstan dari satu observasi
ke observasi lainnya. Pengujian heteroskedastisitas dilakukan dengan melihat
diagram residual terhadap variabel bebas pada output Scatterplot.
Jika nilai error membentuk pola tertentu tidak bersifat acak terhadap
nol maka dikatakan terjadi heteroskedasti (Sukestiyarno 2008: 14).
Model persamaan regresi linier ganda dapat dilihat pada output
Coefficients. Sedangkan untuk mengetahui besarnya nilai kontribusi
variabel bebas secara bersama-sama terhadap variabel terikat dapat dilihat pada
output Model Summary (Sukestiyarno 2008: 19).
DAFTAR PUSTAKA
Sudjana. 2005. Metoda Statistika. Bandung:
Tarsito.
Sugiyono. 2004. Statistik
Nonparametris. Bandung: CV Alfabeta.
Sukestiyarno. 2008. Workshop Olah Data Penelitian
dengan SPSS. Semarang: UNNES.
Trihendradi, C. 2006. Langkah Mudah Menguasai Analisis
Statistik Menggunakan SPSS 15. Yogyakarta: Andi Offset.
Regresi
linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh antara
satu atau beberapa variabel terhadap satu buah variabel. Variabel yang
mempengaruhi sering disebut variabel bebas, variabel independen atau variabel
penjelas. Variabel yang dipengaruhi sering disebut dengan variabel terikat atau
variabel dependen. Regresi linear hanya dapat digunakan pada skala interval dan ratio
Secara
umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu
dengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi
linear berganda dengan beberapa variabel bebas dan satu buah variabel terikat.
Analisis regresi linear merupakan metode statistik yang paling jamak
dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi.
Program komputer yang paling banyak digunakan adalah SPSS (Statistical Package For Service Solutions).
Regresi
Linear Sederhana
Analisis
regresi linear sederhana dipergunakan untuk mengetahui pengaruh antara satu
buah variabel bebas terhadap satu buah variabel terikat. Persamaan umumnya
adalah:
Y = a + b X.
Dengan Y
adalah variabel terikat dan X adalah variabel bebas. Koefisien a adalah
konstanta (intercept) yang merupakan titik potong antara garis regresi dengan
sumbu Y pada koordinat kartesius.
Langkah
penghitungan analisis regresi dengan menggunakan program SPSS adalah: Analyse
--> regression --> linear. Pada jendela yang ada, klik variabel terikat
lalu klik tanda panah pada kota dependent. Maka variabel tersebut akan masuk ke
kotak sebagai variabel dependen. Lakukan dengan cara yang sama untuk variabel
bebas (independent). Lalu klik OK dan akan muncul output SPSS.
Interpretasi
Output
- Koefisien determinasi
Koefisien determinasi mencerminkan seberapa besar
kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya.
Mempunyai nilai antara 0 – 1 di mana nilai yang mendekati 1 berarti semakin
tinggi kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya.
- Nilai t hitung dan signifikansi
Nilai t
hitung > t tabel berarti ada pengaruh yang signifikan antara variabel bebas
terhadap variabel terikat, atau bisa juga dengan signifikansi di bawah 0,05
untuk penelitian sosial, dan untuk penelitian bursa kadang-kadang digunakan
toleransi sampai dengan 0,10.
- Persamaan regresi
Sebagai
ilustrasi variabel bebas: Biaya promosi dan variabel terikat: Profitabilitas
(dalam juta rupiah) dan hasil analisisnya Y = 1,2 + 0,55 X. Berarti
interpretasinya:
- Jika besarnya biaya promosi
meningkat sebesar 1 juta rupiah, maka profitabilitas meningkat sebesar
0,55 juta rupiah.
- Jika biaya promosi bernilai
nol, maka profitabilitas akan bernilai 1,2 juta rupiah.
Interpretasi
terhadap nilai intercept (dalam contoh ini 1,2 juta) harus hati-hati dan sesuai
dengan rancangan penelitian. Jika penelitian menggunakan angket dengan skala
likert antara 1 sampai 5, maka interpretasi di atas tidak boleh dilakukan
karena variabel X tidak mungkin bernilai nol. Interpretasi dengan skala likert
tersebut sebaiknya menggunakan nilai standardized coefficient sehingga
tidak ada konstanta karena nilainya telah distandarkan.
Contoh:
Pengaruh antara kepuasan (X) terhadap kinerja (Y) dengan skala likert antara 1
sampai dengan 5. Hasil output yang digunakan adalah standardized
coefficients sehingga Y = 0,21 X dan diinterpretasikan bahwa peningkatan
kepuasan kerja akan diikuti dengan peningkatan kinerja atau penurunan kepuasan
kerja juga akan diikuti dengan penurunan kinerja. Peningkatan kepuasan kerja
dalam satu satuan unit akan diikuti dengan peningkatan kinerja sebesar 0,21
(21%).
Regresi
Linear Berganda
Analisis
regresi linear berganda sebenarnya sama dengan analisis regresi linear
sederhana, hanya variabel bebasnya lebih dari satu buah. Persamaan umumnya adalah:
Y = a + b1 X1 + b2 X2
+ .... + bn Xn.
Dengan Y
adalah variabel bebas, dan X adalah variabel-variabel bebas, a adalah konstanta
(intersept) dan b adalah koefisien regresi pada masing-masing variabel bebas.
Interpretasi
terhadap persamaan juga relatif sama, sebagai ilustrasi, pengaruh antara
motivasi (X1), kompensasi (X2) dan kepemimpinan (X3) terhadap kepuasan kerja
(Y) menghasilkan persamaan sebagai berikut:
Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3
- Jika variabel motivasi
meningkat dengan asumsi variabel kompensasi dan kepemimpinan tetap, maka
kepuasan kerja juga akan meningkat
- Jika variabel kompensasi
meningkat, dengan asumsi variabel motivasi dan kepemimpinan tetap, maka
kepuasan kerja juga akan meningkat.
- Jika variabel kepemimpinan
meningkat, dengan asumsi variabel motivasi dan kompensasi tetap, maka
kepuasan kerja juga akan meningkat.
Interpretasi
terhadap konstanta (0,235) juga harus dilakukan secara hati-hati. Jika
pengukuran variabel dengan menggunakan skala Likert antara 1 sampai dengan 5
maka tidak boleh diinterpretasikan bahwa jika variabel motivasi, kompensasi dan
kepemimpinan bernilai nol, sebagai ketiga variabel tersebut tidak mungkin
bernilai nol karena Skala Likert terendah yang digunakan adalah 1.
Analisis
regresi linear berganda memerlukan pengujian secara serempak dengan menggunakan
F hitung. Signifikansi ditentukan dengan membandingkan F hitung dengan F tabel
atau melihat signifikansi pada output SPSS. Dalam beberapa kasus dapat terjadi
bahwa secara simultan (serempak) beberapa variabel mempunyai pengaruh yang
signifikan, tetapi secara parsial tidak. Sebagai ilustrasi: seorang penjahat
takut terhadap polisi yang membawa pistol (diasumsikan polisis dan pistol
secara serempak membuat takut penjahat). Akan tetapi secara parsial, pistol tidak
membuat takut seorang penjahat. Contoh lain: air panas, kopi dan gula
menimbulkan kenikmatan, tetapi secara parsial, kopi saja belum tentu
menimbulkan kenikmatan.
Penggunaan
metode analisis regresi linear berganda memerlukan uji asumsi klasik yang secara statistik harus
dipenuhi. Asumsi klasik yang sering digunakan adalah asumsi normalitas,
multikolinearitas, autokorelasi, heteroskedastisitas dan asumsi linearitas..
Langkah-langkah
yang lazim dipergunakan dalam analisis regresi linear berganda adalah 1) koefisien determinasi; 2) Uji F dan 3 ) uji t. Persamaan
regresi sebaiknya dilakukan di akhir analisis karena interpretasi terhadap
persamaan regresi akan lebih akurat jika telah diketahui signifikansinya.
Koefisien determinasi sebaiknya menggunakan Adjusted R Square dan jika bernilai negatif maka uji
F dan uji t tidak dapat dilakukan.
Bentuk-bentuk regresi yang juga sering digunakan dalam penelitian adalah regresi logistik atau regresi ordinal.
Bentuk-bentuk regresi yang juga sering digunakan dalam penelitian adalah regresi logistik atau regresi ordinal.
Pertanyaan-pertanyaan
yang sering muncul
- Dalam uji regresi sederhana
apakah perlu menginterpretasikan nilai F hitung?
Uji F
adalah uji kelayakan model (goodness of fit) yang harus dilakukan dalam
analisis regresi linear. Untuk analisis regresi linear sederhana Uji F boleh
dipergunakan atau tidak, karena uji F akan sama hasilnya dengan uji t.
- Kapan menggunakan uji satu arah dan kapan menggunakan uji dua arah?
Penentuan arah pengujian adalah berdasarkan masalah penelitian,
tujuan penelitian dan perumusan hipotesis. Jika hipotesis sudah menentukan
arahnya, maka sebaiknya digunakan uji satu arah, tetapi jika hipotesis belum
menentukan arah, maka sebaiknya menggunakan uji dua arah. Penentuan arah pada
hipotesis berdasarkan tinjauan literatur. Contoh hipotesis dua arah: Terdapat
pengaruh antara kepuasan terhadap kinerja. Contoh hipotesis satu arah: Terdapat
pengaruh positif antara kepuasan terhadap kinerja. Nilai t tabel juga berbeda
antara satu arah dan dua arah. Jika menggunakan signifikansi, maka signifikansi
hasil output dibagi dua terlebih dahulu, baru dibandingkan dengan 5%.
- Apa bedanya korelasi dengan
regresi?
Korelasi adalah hubungan dan regresi adalah pengaruh. Korelasi bisa
berlaku bolak-balik, sebagai contoh A berhubungan dengan B demikian juga B
berhubungan dengan A. Untuk regresi tidak bisa dibalik, artinya A berpengaruh
terhadap B, tetapi tidak boleh dikatakan B berpengaruh terhadap A. Dalam
kehidupan sehari-hari kedua istilah itu (hubungan dan pengaruh) sering
dipergunakan secara rancu, tetapi dalam ilmu statistik sangat berbeda. A
berhubungan dengan B belum tentu A berpengaruh terhadap B. Tetapi jika A
berpengaruh terhadap B maka pasti A juga berhubungan dengan B. (Dalam analisis
lanjut sebenarnya juga ada pengaruh yang bolak-balik yang disebut dengan recursive,
yang tidak dapat dianalisis dengan analisis regresi tetapi menggunakan (structural equation
modelling).
2.1
Analisis Regresi Linier Ganda
Analisis regresi linier ganda terdiri dari satu variabel
dependen dan beberapa variabel independen. Analisis regresi linier ganda
dinyatakan dengan hubungan persamaan regresi:
![]() |

(Sudjana 2005:
349).
Keterangan :
X1, X2,
..., Xk : Variabel independen
Y : Variabel dependen


Pada analisis regresi linier ganda ada enam uji pokok,
yaitu:
(1) Uji Kelinieran
Hipotesis:
H0 : Persamaan
regresi tidak linier
H1 : Persamaan
regresi linier
Berdasarkan pengolahan data dengan SPSS, jika nilai sig
pada output ANOVA lebih dari α (5%) maka H0 diterima
(Trihendradi 2006: 157).
(2) Uji Koefisien
Hipotesis:
H0 : Koefisien
regresi tidak signifikan
H1 : Koefisien regresi signifikan
Berdasarkan pengolahan data dengan SPSS, jika nilai sig
pada output Coefficients lebih dari α (5%) maka H0 diterima
(Trihendradi 2006: 158).
(3) Uji Normalitas Data
Berdasarkan teori statistika model linier hanya variabel
dependen yang mempunyai distribusi diuji normalitasnya, sedangkan variabel
independen diasumsikan bukan merupakan fungsi distribusi, jadi tidak perlu
diuji normalitasnya. Salah satu cara untuk menguji kenormalan data yaitu dengan
uji Kolmogorov-Smirnov.
Hipotesis:
H0 : Variabel
adalah normal
H1 : Variabel adalah tidak normal
Berdasarkan pengolahan data dengan SPSS, jika nilai sig
pada output NPar Tests lebih dari α (5%) maka H0 diterima.
Selain itu kenormalan data dapat juga dideteksi dari
penyebaran data (titik) pada sumbu diagonal dari grafik atau melihat grafik
histograf dari residualnya. Jika data menyebar di sekitar garis diagonal dan
mengikuti arah garis histograf menuju pola distribusi normal, maka model
regresi memenuhi asumsi normalitas (Sukestiyarno 2008: 14).
(4) Uji Multikolinearitas
Uji multikolinearitas bertujuan untuk menguji apakah
model regresi ditemukan adanya korelasi antara variabel bebas. Jadi uji
multikolinearitas terjadi hanya pada regresi ganda. Model regresi yang baik
seharusnya tidak terjadi korelasi tinggi diantara variabel bebas. Gejala
multikolinearitas dapat dideteksi dengan melihat nilai Variance Inflasi
Factor (VIF) dan tolerance pada output Coefficients.
Multikolinearitas terjadi jika VIF berada di atas 10 dan nilai tolerance
di atas 1 (Sukestiyarno 2008: 14).
(5) Uji Autokorelasi
Uji autokorelasi bertujuan menguji apakah dalam model
regresi linier ada korelasi antar error satu dengan error yang
lainnya. Gejala autokorelasi dapat dideteksi dengan menggunakan uji Durbin
Watson (DW) pada output Model Summary. Ketentuan jika -2 < DW < 2
berarti tidak terjadi autokorelasi (Sukestiyarno 2008: 14).
(6)
Uji Heteroskedastisitas
Heteroskedastisitas terjadi apabila error atau residual
dari model yang diamati tidak memiliki varian yang konstan dari satu observasi
ke observasi lainnya. Pengujian heteroskedastisitas dilakukan dengan melihat
diagram residual terhadap variabel bebas pada output Scatterplot.
Jika nilai error membentuk pola tertentu tidak bersifat acak terhadap
nol maka dikatakan terjadi heteroskedasti (Sukestiyarno 2008: 14).
Model persamaan regresi linier ganda dapat dilihat pada output
Coefficients. Sedangkan untuk mengetahui besarnya nilai kontribusi
variabel bebas secara bersama-sama terhadap variabel terikat dapat dilihat pada
output Model Summary (Sukestiyarno 2008: 19).
DAFTAR PUSTAKA
Sudjana. 2005. Metoda Statistika. Bandung:
Tarsito.
Sugiyono. 2004. Statistik
Nonparametris. Bandung: CV Alfabeta.
Sukestiyarno. 2008. Workshop Olah Data Penelitian
dengan SPSS. Semarang: UNNES.
Trihendradi, C. 2006. Langkah Mudah Menguasai Analisis
Statistik Menggunakan SPSS 15. Yogyakarta: Andi Offset.