Regresi Linier Berganda

Pendahuluan | Asumsi Klasik | Uji Normalitas | Uji Homoscedasticity | Uji Multikolinearitas | Uji Otokorelasi | Uji F | Uji T | Tingkat Kepentingan Prediktor

Pendahuluan

Regresi berganda merupakan alat statistik yang dapat digunakan untuk membangun model untuk memrediksi suatu keluaran (outcome) (Higgins, 2005). Menurut Simon (2003), regresi untuk tujuan prediksi adalah yang paling bermanfaat, namun regresi untuk tujuan ini sedikit.  Kebanyakan regresi digunakan untuk memeriksa apakah terdapat hubungan signifikan antara Y dengan satu atau lebih prediktor.

REGRESI linier berganda digunakan apabila variabel independen terdiri dari dua atau lebih.  Menurut Simon (2003), persamaan regresi linier untuk k variabel adalah:

Yi = β0 + β1 (X1)i + β2 (X2)i + β3 (X3)i + … + βK (XK)i + εi ………. (1)

Label ‘i’ menyatakan tentang apa regresi dimaksud, βK=koefisien ke-k, ε adalah gangguan atau error yang bersifat acak dan tidak teramati atau bukan hasil pengamatan. Umumnya label ‘i’ tidak disertakan, sehingga model umum regresi linier berganda paling sering ditemukan adalah:

Y = β0 + β1 (X1) + β2 (X2) + β3 (X3)i + … + βK (XK) + ε …………… (2)

XK adalah variabel independen ke-k, βK=koefisien ke-k, ε adalah gangguan atau error yang bersifat acak dan tidak teramati atau bukan hasil pengamatan. Dalam pelaksanaannya, komponen ‘ε’ tidak disertakan pada persamaan. Persamaan demikian disebut fitted model, yaitu:

 Ŷ= β0 + β1 (X1) + β2 (X2) + β3 (X3)i + … + βK (XK) ………………….. (3)

Apabila fitted model dipakai untuk memrediksi nilai Y pada kasus ke-i, maka penulisan modelnya adalah:

Ŷi = β0 + β1 (X1)i + β2 (X2)i + β3 (X3)i + … + βK (XK)i ………..…….… (4)

Penulisan persamaan regresi di atas sebenarnya tidak baku. Ada cara  lain penulisan notasi persamaan selain notasi yang kita gunakan, seperti ditampilkan pada Tabel 1.

Tabel 1.  Cara Penulisan Notasi Model Regresi

Notasi yang Kita PakaiCara Lain Penulisan Notasi
Yiyi
Xixi
β01X1α+βX1
εiei
(X1)i, (X2)i, (X3)i, …, (XK)iXi1, Xi2, Xi3, …, XiK

Kesuksesan regresi dinilai berdasarkan tujuan regresi dilakukan. Apabila dimaksudkan untuk memprediksi Ŷi, maka keberhasilan regresi tergantung pada seberapa seberapa dekat nilai prediksi Y (yaitu Ŷ1, Ŷ2, Ŷ3 … Ŷn) dengan nilai observasi Y (Y1, Y2, Y3 … Yn) atau seberapa kecil error kuadrat.  Namun, menurut Simon (2003),  prediksi bukan satu-satunya tujuan regresi linier berganda. Menurutnya, pertanyaan lain adalah apakah persamaan regresi dapat dipercaya? Untuk itu, regresi linier berganda perlu memenuhi berbagai asumsi atau persyaratan.

Pendahuluan | Uji Normalitas | Uji Homoscedasticity | Uji Multikolinearitas | Uji Otokorelasi | Uji F | Uji T

Asumsi Klasik

Williams et al. (2013) menyatakan bahwa agar dapat dipercaya (credibility), koefisien-koefisien regresi linier berganda seharusnya tidak bias (unbiased), konsisten (consistent) dan efisien (efficient).  Sebuah estimator dikatakan tidak bias apabila nilai yang diharapkan (expected value) adalah sama dengan nilai parameter dalam populasi.  Dengan kata lain, estimator tidak memiliki bias sistematis atau tidak memiliki kecenderungan mengestimasi parameter sebenarnya (true parameters) terlalu rendah atau terlalu tinggi. Sebuah estimator dikatakan konsisten apabila nilai estimasi semakin mendekati nilai parameter sebenarnya seiring dengan peningkatan ukuran sampel atau akurasinya meningkat dengan semakin besarnya ukuran sampel. Efisiensi estimator berkaitan dengan keakuratan estimasi yang dihasilkan suatu estimator. Estimator dikatakan efisien apabila paling akurat (memiliki varian terkecil) dari semua estimator yang tidak bias dari suatu parameter.

Agar estimator tidak bias, konsisten, dan efisien dan akurat, menurut Osborne dan Waters (2002), regresi linier berganda perlu memenuhi enam asumsi, yaitu: error berdistribusi normal (normal distribution of errors), variabel-varibel observasi bersifat independen satu sama lain (independence of observations), prinsip liniaritas (linearity), reliabilitas pengukuran (reliability of measurement), homokedastisitas (homoscedasticity), dan variabel yang berdistribusi normal (normality).  Menurut keduanya, dua syarat pertama sulit dihindari atau besar kemungkinan (robust) akan terjadi, sedangkan empat syarat terakhir tidak selalu terjadi atau dapat dihindari (non-robust), sehingga keempatnyalah yang wajib dipenuhi dalam penelitian.

Willliams et al. (2013) menyatakan bahwa dua syarat pertama yang disebut Osborne dan Waters (2002) sebagai robust, sebenarnya perlu dimaksukkan sebagai asumsi yang harus dipenuhi oleh regresi linier.  Oleh karena itu, apabila keduanya dimasukkan, sebenarnya poin-poin yang disampaikan Osborne dan Waters (2002).

Poin pertama dari Poole dan O’Farrel (1970) bahwa syarat nilai pengamatan setiap variabel X dan Y harus bebas dari kesalahan pengukuran (measurement error) sebenarnya bukan khas regresi linier. Syarat ini wajib dipenuhi oleh semua penelitian, di mana  instrumen (misalnya kuesioner) yang digunakan harus reliabel. Uji Cronbach Alpha banyak digunakan untuk keperluan ini.

Poin ketiga dan ketujuh mendapat respon yang beragam dari para ahli. Poole dan O’Farrel (1970) memasukkan keduanya. Osborne dan Waters (2002) mengganggap bahwa syarat ketujuh yang diperlukan karena syarat ketiga adalah robust. Sedangkan menurut Williams et al. (2013) justru syarat ketiga, yaitu normalitas distribusi error yang diperlukan, bukan yang ketujuh.

Lebih jelasnya, mereka mengasumsikan bahwa error berdistribusi normal, sebagaimana juga dikatakan  Rawling et al.( 1998). Ketiga peneliti terakhir ini juga menyatakan bahwa syarat ini baru diperlukan apabila tujuan analisis regresi adalah untuk menguji koefisien βi  dan confidence interval.

Berdasarkan uraian di atas, maka syarat-syarat regresi linier berganda adalah: (1) eror atau residual berdistribusi normal, (2) tidak terdapat multi-kolinearitas, (3) tidak terjadi heteroskedastisitas dan (4) tidak terjadi auto-korelasi.

Pendahuluan | Asumsi Klasik | Uji Homoscedasticity | Uji Multikolinearitas | Uji Otokorelasi | Uji F | Uji T

Uji Normalitas

Prinsip normalitas berlaku untuk error (Rawlings et al., 1998; Osborne dan Water, 2002; Willliam et al., 2013). Error yang disebut juga residual adalah perbedaan antara nilai hasil observasi dan nilai prediksi yang diperoleh melalui model regresi sebenarnya (true regression model) yang berlaku untuk populasi secara keseluruhan.  Residual adalah perbedaan antara nilai observasi dengan nilai prediksi yang diperoleh dengan menggunakan model regresi estimasi. Untuk setiap kombinasi nilai prediktor, diasumsikan distribusi residual adalah normal.

Sebagian peneliti menyatakan bahwa estimatorlah yang harus berdistribusi normal. Syarat ini sulit diterapkan dalam ilmu-ilmu sosial. Dalam survai, misalnya, distribusi data cenderung tidak normal, yaitu condong (skewness) ke kiri atau ke kanan. Penyebabnya, sikap orang-orang tentang seuatu cenderung ke arah baik ataupun buruk

Namun, menurut White and McDonald (1980) prinsip normalitas variabel tidak bisa diterapkan apabila estimator menggunakan skala dikotomi (misalnya: pria-wanita, hujan-tidak hujan, terang-gelap).

Williams et al. (2013) menambahkan bahwa apabila error berdistribusi normal, kita dapat mengambil kesimpulan tentang populasi walaupun ukuran sampel kecil. Pelanggaran terhadap asumsi ini, menurut mereka, mengutip White dan MacDonald (1980), dapat menurunkan efisiensi estimator. Menurut mereka, apabila error tidak berdistribusi normal, nilai koefisien t dan F mungkin tidak mengikuti distribusi t dan F.  Mereka juga mengatakan bahwa prinsip normalitas variabel tidak bisa diterapkan apabila estimator menggunakan skala dikotomi (misalnya: pria-wanita, hujan-tidak hujan, terang-gelap).

Bagaimana kalau tidak normal?

  1. Tambah jumlah sampel karena semakin besar ukuran sampel, data semakin mengarah ke distribusi normal.
  2. Deteksi Keberadaan outliers dapat menyebabkan data berdistribusi tidak normal.
  3. Lakukan transformasi regresi linier menjadi regresi polynomial. Ada dua persamaan yang umumnya digunakan, yaitu persamaan pangkat dua dan pangkat tiga tergantung pada pola distribusi datanya. Persamaan pangkat dua digunakan untuk distribusi yang bersifat parabolik, sedangkan persamaan pangkat tiga digunakan untuk distibusi data yang bersifat sinusoidal.
  4. Lakukan transformasi regresi linier menjadi regresi logaritmik. Ada empat pilihan model, yaitu log-liner, linier-log dan log-log. Prinsip-prinsip operasi logaritma berlaku dalam pendekatan ini.

Transformasi regresi linier menjadi polynomial regression dan logarithmic regression dapat ditemukan pada buku-buku statistika. Pembaca bisa pula membaca buku “Teknik Regresi untuk Riset Manajemen dan Bisnis” karangan penulis.

Sebagai contoh, download data dari link ini, yang diperoleh dari 102 responden. Pertama-tama, lakukan regresi dengan langkah-langkah pada SPSS: Analysis>Regression>Linier. Kemudian, pada kotak yang muncul pada layar SPSS isikan variabel dependen dan independen. Jangan lupa meng-klik tombol ‘save’ agar SPSS memberikan data unstandardized residuals.  Klik tombol ‘Plot’ lalu tandai Normal probability plot, Histogram. Pada sel X masukkan *ZPRES dan *ZRESID pada sel Y, kemudian Continue.  Lalu klik OK pada kotak yang pertama muncul tadi.

Dalam menguji normalitas kita mulai dari memperhatikan distribusi residual, seperti ditunjukkan pada Output 1. Kita dapat melihat bahwa distribusi residual yang ditampilkan dalam bentuk histogram tidak mengikuti pola kurva normal. Namun, untuk memastikan apakah residual berdistribusi normal atau tidak, kita dapat menggunakan uji Kolmogorov-Smirnov dan Shapiro-Wilk.

Perlu diketahui dari proses sebelumnya SPSS telah memberikan data residual yang disimpan sebagai variabel RES_1. Nah, sekarang kita menguji apakah variabel ini berdistribusi normal atau tidak.  Langkah-langkahnya adalah: Analyze>Desciptive Statistics>Explore. Pada kotak yang muncul, masukkan Unstandardized Residuals (RES_1) ke sel Dependent List.  Kemudian, klik tombol ‘Plot’ dan tandai Normality plots with test.  Kemudian, klik OK untuk melakukan proses.

Hasil pada Output 2 memperlihatkan tercukupinya bukti untuk menolak ‘Ho: Data residual berdistribusi normal’ berdasarkan uji Kolmogorov-Smirnov (nilai Sig.=0.000) dan uji Shapiro-Wilk (nilai Sig.=0.000). Dengan demikian, kita dapat menyatakan bahwa data residual berdistribusi tidak normal.

Output 2. Tests of Normality

Kolmogorov-SmirnovaShapiro-Wilk
StatisticdfSig.StatisticdfSig.
Unstandardized Residual.231102.000.551102.000
a. Lilliefors Significance Correction

Apa yang kita lakukan sekarang? Menambah jumlah responden dapat dilakukan apabila proses penelitian masih memungkinkannya. Kalau tidak, maka langkah kedua dapat kita lakukan, yaitu mendeteksi outliers. Pendeteksian outliers dapat memanfaatkan hasil analisis SPSS, seperti ditampilkan pada Output 3.

Pada Output 3 terlihat bahwa outliers adalah kasus yang nilai residual-nya <-3.27 (satu responden, yaitu no. 52) dan >0.83 (lima responden, yaitu no. 23, 48, 51, 75 dan 100).  Selanjutnya, keenam responden tersebut kita keluarkan dari data. Jumlah responden yg tersisa adalah 96 orang.

Output 3. Unstandardized Residual Stem-and-Leaf Plot
———————————————————————
Frequency     Stem &  Leaf

 1.00 Extremes  (<-3.27)
 1.00       -4 .  9
 8.00       -3 .  00666999
14.00       -2 .  00033344445555
22.00       -1 .  1111111333335588888999
17.00       -0 .  11111111113335557
 9.00        0 .  111133338
14.00        1 .  11113333455557
 3.00        2 .  111
 3.00        3 .  000
  .00        4 .
 5.00        5 .  12222

 5.00 Extremes  (>.83)
 Stem width:    .10000
 Each leaf:     1 case(s)
————————————————————————

Setelah outliers dikeluarkan, lakukan kembali regresi dengan langkah-langkah pada SPSS: Analysis>Regression>Linier. Kemudian, pada kotak yang muncul isikan variabel dependen dan independen. Jangan lupa meng-klik tombol ‘save’ agar SPSS memberikan data unstandardized residuals.  Klik tombol ‘Plot’ lalu tandai Normal probability plot, Histogram. Pada sel X masukkan *ZPRES dan pada sel Y masukkan *ZRESID, kemudian Continue.  Klik tombol Statistics dan pastikan pilihan Estimates, Model fit dan Collinearity diagnostics telah ditandai.  Kemudian klik OK.

Langsung saja kita memeriksa distribusi residual yang dinyatakan dalam bentuk histogram (Output 4). Terlihat bahwa distribusi residual tidak mengikuti sepenuhnya kurva distribusi normal.  Namun, untuk memastikan apakah residual berdistribusi normal atau tidak, kita kembali menggunakan uji Kolmogorov-Smirnov dan Shapiro-Wilk. Prosedur sebelumnya kita gunakan lagi. Langkah-langkahnya adalah: AnalizeàDesciptive StatisticsàExplore. Pada kotak yang muncul, masukkan Unstandized Residuals (RES_1) ke sel Dependent List.  Kemudian, klik tombol ‘Plot’ dan tandai Normality plots with test.  Kemudian, klik OK untuk melakukan proses.

Output 5. Tests of Normality

Kolmogorov-SmirnovaShapiro-Wilk
StatisticdfSig.StatisticdfSig.
Unstandardized Residual.07296.200*.97596.060
*. This is a lower bound of the true significance.
a. Lilliefors Significance Correction

Pada Output 5 terlihat bahwa nilai Kolmogorov-Smirnov=0.72 dengan Sig.=0.20, sedangkan nilai Shapiro-Wilk=0.975 dengan nilai Sig.=0.060.  Dengan demikian, pada α=0.05, tidak cukup bukti untuk menolak ‘Ho: Data residual berdistribusi normal’.  Dengan demikian, data sudah memenuhi syarat normalitas.

Pendahuluan | Asumsi Klasik | Uji Normalitas | Uji Multikolinearitas | Uji Otokorelasi | Uji F | Uji T

Uji Homoscedasticity

Selain uji homoskedastisitas, ada juga yang menyatakannya sebagai uji heteroskedastitas untuk tujuan yang sama. Namun, karena pada dasarnya uji statistik adalah menguji Ho (Fisher, 1955), maka istilah yang digunakan di sini adalah uji homeskedastisitas.

Homocedasticity adalah suatu keadaan, di mana error variance adalah sama pada setiap level variabel independen (Osborne dan Waters, 2002).  Apabila tidak sama, maka terjadilah heterocedasticity. Mengutip Tabanock dan Fidell (1996), Osborne dan Waters (2002) menyatakan heterocedasticity dapat menyebabkan gangguan pada temuan dan meningkatkan kemungkinan terjadinya kesalahan Tipe I (Type I error).

Asumsi ini dapat dicek secara visual (Gambar 1) maupun melalui uji statistik Glejser.  Umumnya software statistik masa kini telah dilengkapi dengan fasilitas untuk menguji asumsi ini.  Pada Gambar 1 (A) terlihat titik-titik, yang melambangkan residual, yang menyebar merata pada garis mendatar. Garis mendatar ini menandai titik nol atau residual=0. Di bawah garis residual bernilai negatif, di atas residual positif.  Pada Gambar 1 (B), memperlihatkan heterocedasticity, terlihat bahwa saat standardized predicted values rendah dan tinggi, varian standardized residual tinggi. Sementara itu, pada bagian tengah, yaitu saat standardized predicted values sedang,  varian standardized residual lebih rendah.

Bagaimana dengan data kita, apakah terbebas dari heteroscedasticity?  Proses regresi kedua, yang melibatkan data dari 96 responden, yang telah kita lakukan sebelumnya (lihat “Pada sel X masukkan *ZPRES dan pada sel Y masukkan *ZRESID, kemudian Continue”), sebenarnya telah menghasilkan scatterplot antara standardized residual dan standardized predicted Y, seperti ditampilkan pada Output 6.  Penerjemahan pola persebaran standardized residual pada Output 6 secara visual tidak semudah penerjemahan Gambar 1.  Berdasarkan Output 6, secara visual  kita tidak dapat yakin apakah prinsip homocedasticity terpenuhi atau tidak. Untuk itu, kita dapat menggunakan uji Glejser.

Untuk melakukan uji Glejser, pertama-tama, kita rubah minta dulu nilai absolut dari unstandardized residual yang diperoleh dari regresi kedua, yang menggunakan data dari 96 responden. Caranya adalah melakukan perintah ini di SPSS: Transform>Compute Variable. Pada jendela yang muncul tulis nama variabel baru yang berisikan nilai absolut, misalnya kita beri nama Absolute_Residual. Pada ruang di bawah Numeric Expression tulis ABS(RES_1). Tujuannya adalah untuk mendapatkan nilai absolut unstandized residual yang ada pada kolom RES_1. Terakhir klik OK.

SPSS akan membuat kolom baru bernama Absolute_Residual. Uji Glejser dilakukan dengan membuat nilai absolute sebagai variabel dependen. Hasil regresi tampilkan berikut ini.

Coefficientsa 
ModelUnstandardized CoefficientsStandardized CoefficientstSig.Sig./2
BStd. ErrorBeta
1(Constant).351.0864.082.0000.000
food_qual-.022.028-.221-.766.4460.223
serv_qual-.005.023-.051-.214.8310.416
price.002.024.022.095.9250.462
a. Dependent Variable: ABS_RES

Terlihat bahwa nilai signifikansi semua koefisien (Sig/2>0.05) melebihi batas  ∝=0.05. Artinya, pengaruh semua variabel independen terhadap nilai absolut residualnya tidak signifikan. Dengan demikian, asumsi homoskedastisitas terpenuhi.

Pendahuluan | Asumsi Klasik | Uji Normalitas | Uji Homoscedasticity | Uji Otokorelasi | Uji F | Uji T

Uji Multikoliearitas

Dalam regresi berganda, multikolinieritas terjadi ahubungan antara satu variabel independen dengan variabel independen lainnya dianggap ada. Dampak multikolinieritas menimbulkan dampak adalah:

  1. Terjadi peningkatan varian (dan standar eror) koefisien regresi estimator.
  2. Tanda koefisien regresi berbeda dari yang kita harapkan. Misalnya, secara konseptual, kita mengharapkan X1, X2, dan X3 berpengaruh positif pada Y. Namun, karena multikolinieritas, bisa saja satu atau lebih variabel independen berpengaruh negatif.
  3. Penambahan atau pun penarikan variabel independen, akan menyebabkan perubahan besar pada koesien estimasi dan tanda-tandanya.
  4. Pengurangan data akan menyebabkan perubahan koefisien estimasi yang besar.
  5. Dalam berbagai kasus, nilai F signifikan, akan tetapi tidak satu pun nilai t signifikan.

Apabila terjadi multikolinearitas, maka koefisien regresi yang dihasilkan tidak bisa dipercaya. Dengan kata lain, “the individual regression coefficients for each variable are not identifiable”.  Jadi, kalau tujuan sebuah studi adalah untuk menguji pengaruh sejumlah variabel independen terhadap variabel dependen atau untuk menciptakan suatu persamaan, maka multikolinearitas wajib dihindari.

Untuk  mendeteksi ada tidaknya kolinieritas, ada dua cara yang lazim digunakan.  Pertama, dengan melihat korelasi antar variabel independen dan yang kedua adalah   memeriksa varians inflation factors (VIF).  Kali ini yang kita gunakan adalah VIF.

Data yang kita gunakan adalah data 96 responden tersisa dari uji normalitas. Apabila pembaca tidak mengikuti uji normalitas dan homoskedastisitas dan langsung membaca bagian ini, data dimaksud dapat di-download dari link ini.

Buat regresi dengan langkah-langkah pada SPSS: Analysis>Regression>Linier. Kemudian, pada kotak yang muncul pada layar SPSS isikan variabel dependen dan independen. Klik Statistic lalu centrang Collinearity diagnostic. Selanjutnya klik OK.

Output 8.  Hasil SPSS untuk Uji Multikolinearitas
ModelUnstandardized CoefficientsStandardized CoefficientstSig.Collinearity Statistics
BStd. ErrorBetaToleranceVIF
1(Constant)-.359.147-2.446.016
food_qual.463.048.2399.600.000.1238.121
serv_qual.480.040.25012.114.000.1785.618
price1.111.041.54727.211.000.1885.316
a. Dependent Variable: satisfaction

Perhatikan sub-kolom Tolerance pada kolom Collinearity Statistic.  Nilai Tolerance menyatakan 1-R2 apabila sebuah variabel menjadi variabel dependen bagi variabel-variabel independen lainnya. Mari kita buktikan. Dengan menggunakan data tadi, lakukan regresi linier berganda dengan menjadikan ‘price’ menjadi variabel dependen dan ‘serv_qual’ dan ‘food_qual’ sebagai variabel-variabel independen.  Koefisien determinasi (R2) adalah sebesar 0.812.  Dengan demikian, ‘Tolerance’ adalah 1-0.812=0.188.

Output 9Model Summary Simulasi dengan Menjadikan Price sebagai Variabel Dependen bagi ‘food_qual’ dan ‘serv_qual’.
ModelRR SquareAdjusted R SquareStd. Error of the Estimate
1.901a.812.808.51675
a. Predictors: (Constant), food_qual, serv_qual

VIF dihitung berdasarkan nilai toleransi dengan persamaan: VIF=1/Tolerance. Dengan demikian, VIF ‘price’ adalah 1/0.188=5.316. Ketentuan umum (rule of thumb) menyatakan apabila nilai VIF lebih rendah dari 10, maka sebuah variabel dianggap tidak memiliki kolinearitas dengan variabel lain.  Dengan demikian, berdasarkan data Output 8, dapat kita simpulkan bahwa model regresi yang kita kerjakan terbebas dari masalah multikolinearitas.

Pendahuluan | Asumsi Klasik | Uji Normalitas | Uji Homoscedasticity | Uji Multikolinearitas |  Uji F | Uji T

Uji Otokorelasi

Salah satu asumsi korelasi linier adalah independensi error atau residual dari sebuah observasi ke observasi lainnya. Artinya, tidak terdapat korelasi antar residual. Regresi linier berganda harus bebas dari otokorelasi.

Otokorelasi biasanya menjadi perhatian apabila digunakan untuk data yang bersifat serial atau menunjukkan perkembangan nilai parameter dari waktu ke waktu.  Misalnya, apabila harga emas dijadikan sebagai variabel dependen, perlu dilakukan pengecekan karena harga emas pada suatu titik waktu berkaitan dengan harga sebelumnya.

Sekalipun para peneliti umumnya sepakat bahwa otokorelasi dapat terjadi pada data serial, pada data non-serial yang pengambilannya dilakukan pada satu titik waktu (single cross-sectional) dapat terjadi otokorelasi, khususnya apabila sumber data memiliki hubungan tempat (spatial relationship), sebagaimana dalam pengambilan data yang dilakukan secara cluster.  Otokorelasi demikian disebut spatial autocorrelation.  Sebagai contoh, pondok indah adalah satu klaster perumahan mewah. Harga satu rumah kawasan itu tidak terlepas dari harga rumah yang lain. Apabila satu rumah dijual mahal, maka rumah di dekatnya akan cenderung mengalami kenaikan harga. Demikian pula sebaliknya. Kemudian, harga rumah di sekitar Pondok Indah juga terpengaruh. Semakin dekat jaraknya ke Pondok Indah, semakin besar pengaruhnya. Demikian pula sebaliknya.

Jadi, apakah uji otokorelasi dilakukan, tergantung pada dua keadaan. Pertama, apakah data bersifat serial? Kedua, apakah sumber data memiliki kedekatan tempat, sehingga memungkinkan terjadinya satu sumber data mempengaruhi sumber data yang lain?

Keberadaan ‘otokorelasi’ dapat menyebabkan menyimpangnya estimasi koefisien dan kurang akuratnya interval keyakinan (confidence interval).

Sebagai contoh, pada sebuah studi yang dilakukan yang dilakukan selama 16 tahun, diperoleh persamaan yang menggambarkan pengaruh nilai tukar (X1) dan tingkat inflasi (X2) terhadap harga emas (Y). Berdasarkan data tersebut, diperoleh persamaan sebagai berikut:

Dengan persamaan tersebut, diperoleh prediksi Y (dilambangkan dengan Ŷ) . Hasilnya tersaji pada Tabel 3-7.  Lalu, selisih antara Y dan Ŷ dianggap sebagai eror (ei).

Setelah dihitung, lalu eror kita susun dengan memperhatikan lag seperti pada Tabel 3-7. Susunan eror tanpa lag adalah ei.  Lalu, pada eror lag 1 (dilambangkan dengan ei-1), data disusun seperti pada di bawah. Demikian seterusnya.

Otokorelasi tidak terjadi apabila eror pada satu posisi  tidak berkorelasi dengan eror pada posisi lain. Otokorelasi lag 1 terjadi kalau antara eror ei dengan ei-1 terjadi korelasi. Lag 2 terjadi kalau ei-1 berkorelasi dengan ei-2.  Demikian seterusnya sampai otokorelasi lag 9, yaitu antara eror ei-8 dan ei-9 (keduanya tidak terdapat pada di bawah).

Tabel: Contoh Data untuk Perhitungan Otokorelasi

TAHUN KERupiah /dolar (X1)X2YŶeiei-1ei-2ei-3..dst
1     500    250.0000-7,37,34
2     600    360.0001015,6-5,607,34
3     700    490.0004034,55,46-5,607,34
4     800    640.0006049,510,525,46-5,607,34
5     900    810.0007060,49,5810,525,46-5,60
6  1.000 1.000.00010067,432,649,5810,525,46
7  1.100 1.210.00010070,329,7032,649,5810,52
8  1.200 1.440.00010069,230,7629,7032,649,58
9  1.300 1.690.0009564,230,8230,7629,7032,64
10  1.400 1.960.0008055,124,8830,8230,7629,70
11  1.500 2.250.0007042,127,9424,8830,8230,76
12  1.600 2.560.000602535,0027,9424,8830,82
13  1.700 2.890.000503,9446,0635,0027,9424,88
14  1.800 3.240.00020-2141,1246,0635,0027,94
15  1.900 3.610.0005-5055,1841,1246,0635,00
16  2.000 4.000.0000-8383,2455,1841,1246,06

Idealnya, kita harus mendeteksi otokorelasi untuk semua lag.  Akan tetapi, sebagai contoh, kita hanya menguji apakah terdapat otokorelasi lag 1.  Pada persamaan yang baik, otokorelasi pada semua lag tidak signifikan atau dianggap sama dengan nol. Atau, r1=r2=r3=…=rn=0.  Untuk mengujinya, Durbin dan Watson mengembangkan tes statistik tahun 1951, yang disebut tes Durbin-Watson. Untuk uji otokorelasi lag 1 rumusnya seperti di bawah.  Untuk otokorelasi lag selanjutnya, kita tinggal mengganti pembilang dan penyebut pada rumus tersebut dengan pasangan data eror pada lag yang dimaksud.

Tabel: Data untuk Menghitung Otokorelasi Lag 1

Observasieiei-1ei-ei-1(ei)2(ei-ei-1)2
17,3453,88
2-5,607,34-12,9431,36167,4436
35,46-5,6011,0629,81122,3236
410,525,465,06110,6725,6036
59,5810,52-0,9491,780,8836
632,649,5823,061065,37531,7636
729,7032,64-2,94882,098,6436
830,7629,701,06946,181,1236
930,8230,760,06949,870,0036
1024,8830,82-5,94619,0135,2836
1127,9424,883,06780,649,3636
1235,0027,947,061225,0049,8436
1346,0635,0011,062121,52122,3236
1441,1246,06-4,941690,8524,4036
1555,1841,1214,063044,83197,6836
1683,2455,1828,066928,90787,3636
TOTAL20571,7702084,054

Berdasarkan data di atas kita dapat menghitung:

Dengan demikian, nilai d hitung=2084.054/20571.770=0,1013.  Nilai d ini dibandingkan dengan nilai d tabel.  Kesimpulan diambil berdasarkan aturan-aturan di bawah ini.

Hipothesis yang mau diuji adalah:

Ho: ρ1=0
Ha: ρ1≠0

Kita dapat menguji apakah r1 <0 atau r1>0.  Pada tabel DW ada nilai dL dan dU.

Aturan pengujian otokorelasi positif adalah:

  1. Kalau nilai dx hitung < nilai dL, terdapat otokorelasi positif.
  2. Kalau nilai dx hitung berada mulai nilai dL sampai dU, tidak bisa diambil kesimpulan.
  3. Kalau nilai dx lebih besar dari dU, berarti tidak ada otokorelasi positif.

Aturan pengujian otokorelasi negatif adalah:

  1. Kalau dx lebih besar dari 4dL, terdapat autokorelasi.
  2. Kalau dx berada pada nilai 4-dU sampai 4-dL, tidak biasa diambil kesimpulan.
  3. Kalau nilai dx lebih kecil dari 4-dU, tidak cukup bukti untuk menyatakan keberadaan otokorelasi negatif.

Pada tabel D-W lampiran terlihat bahwa untuk n=16, µ=0,05, dan k (yaitu jumlah variabel independen)=2, diperoleh nilai dU=1,54 dan nilai dL=0,98. Karena nilai d hitung=0,1013m dan lebih kecil dari dL=0.98, dengan demikian terdapat otokorelasi pada lag 1.

Pendahuluan | Asumsi Klasik | Uji Normalitas | Uji Homoscedasticity | Uji Multikolinearitas | Uji OtokorelasiUji T

Uji F

Uji F adalah uji kelayakan atau kesesuaian model (model fit test).  Uji ini memeriksa apakah model dengan variabel-variabel independen sama saja dengan persamaan yang menggunakan konstanta saja (tanpa variabel-variabel independen). Dengan kata lain, apakah variabel-variabel independen memiliki determinasi terhadap variabel dependen. Rumus statistik F adalah berikut:

dimana, R2=koefisien determinasi, k=jumlah variabel independen, dan i=nomor variabel.

Hipothesis yang diuji adalah:

Ho: β123= … =βi=0, i=1, 2, … k
Ha: βi≠0 atau paling sedikit satu di antara koefisien beta (βi) tidak sama dengan nol.

Uji ini dapat dilakukan kalau persamaan regresi sudah memenuhi asumsi klasik. Untuk mempelajari bagian ini lebih lanjut, kita akan lakukan analisis regresi lagi. Pada uraian sebelumnya, data yang kita gunakan ini menghasilkan persamaan yang bebas dari pelanggaran asumsi klasik. Data dapat di-download dari link ini.

Buat regresi dengan langkah-langkah pada SPSS: Analysis>Regression>Linier. Kemudian, pada kotak yang muncul pada layar SPSS isikan variabel dependen dan independen. Selanjutnya klik OK.

Hasil

Model Summary
ModelRR SquareAdjusted R SquareStd. Error of the Estimate
1.996a.993.993.20345
a. Predictors: (Constant), price, serv_qual, food_qual

Tabel Nilai F

ANOVAa
ModelSum of SquaresdfMean SquareFSig.
1Regression540.4913180.1644352.539.000b
Residual3.80892.041
Total544.29995
a. Dependent Variable: satisfaction
b. Predictors: (Constant), price, serv_qual, food_qual

Tabel Nilai t

Coefficientsa
ModelUnstandardized CoefficientsStandardized CoefficientstSig.
BStd. ErrorBeta
1(Constant)-.359.147-2.446.016
food_qual.463.048.2399.600.000
serv_qual.480.040.25012.114.000
price1.111.041.54727.211.000
a. Dependent Variable: satisfaction

Kita bisa menghitung nilai F menggunakan rumus di atas, seperti berikut ini.

Untuk mengambil keputusan menerima atau menolak Ho, nilai ini kita bandingkan dengan nilai Tabel F. Namun, kalau menggunakan SPSS, kita dimudahkan. Seperti pada tabel di atas, SPSS memberikan nilai F=4352.539  dengan nilai Sig.=0.000. Cukup bukti untuk menolak Ho. Sebagai gantinya, kita menerima hipothesis alternatif (Ha)  bahwa paling tidak satu di antara koefien variabel-variabel independen tidak sama dengan nol. Dengan kata lain, model adalah sesuai (fit) dan layak digunakan.

Pendahuluan | Asumsi Klasik | Uji Normalitas | Uji Homoscedasticity | Uji Multikolinearitas | Uji Otokorelasi | Uji F

Uji t

Berdasarkan hasil yang diberikan SPSS kita memperoleh persamaan berikut:

Satisfaction=-0.359 + 0.463food_qual + 0.480sev_qual + 1.111price

Uji t digunakan untuk menguji apakah setiap koefisien setiap variabel independen signifikan ataukah tidak signifikan.

Hipothesis uji dua arah adalah:

Ho: βi=0
Ha: β≠o

Hipothesis uji satu arah untuk pengaruh positif adalah:

Ho: βi=0
Ha: β>o

Hipothesis uji satu arah untuk pengaruh negatif adalah:

Ho: βi=0
Ha: β<o

Katakanlah dalam contoh ini kita melakukan uji satu arah dengan hubungan positif.

Uji hipothesis: Kualitas makanan berpengaruh positif terhadap kepuasan konsumen terhadap makanan itu.

β1=0: Kualitas makanan tidak berpengaruh terhadap kepuasan konsumen terhadap makanan itu.
β1>0: Kualitas makanan berpengaruh positif terhadap kepuasan konsumen terhadap makanan itu.

Nilai t=9.60 dengan nilai Sig.=0.000. Dengan demikian cukup bukti dengan tingkat kepercayaan 100% untuk menolak Ho. Jadi, kualitas makanan berpengaruh positif terhadap kepuasan konsumen terhadap makanan itu.

Tingkat Kepentingan Prediktor

Regresi berganda dapat dipakai untuk menilai tingkat kepentingan suatu prediktor.  Seberapa penting suatu prediktor tergantung dari seberapa besar  sumbangan prediktor tersebut terhadap varians variabel independen.  Namun, tidak ada indikator tunggal yang menyatakan besarnya sumbangan tersebut.  Beberapa indikator yang umumnya dipakai untuk menginterpretasi tingkat kepentingan prediktor adalah:

  1. Signifikansi statistik. Kalau koefisien regresi suatu variabel tidak signifikan, maka variabel tersebut tidak penting.  Namun, kalau secara teoritis dipercaya penting, walaupun tidak signifikan melalui uji statistik, sebuah variabel tetap saja bisa dianggap sebagai variabel penting.
  2. Koefisien determinasi (r2). Ini bisa dipakai untuk regresi linier sederhana. Semakin tinggi r2, semakin penting variabel independen yang digunakan.
  3. Koefisien determinasi korelasi parsial (Ryxxjxk)2. Semakin besar, semakin penting variabel.
  4. Standardized coefficient. Kriteria ini adalah nilai absolut |b| atau  √(bi)2. Kriteria ini tidak reliabel kalau ada multikolinieritas.
  5. Koefisien determinasi part correlation. Ukuran ini mewakili besarnya peningkatan R2 saat sebuah variabel dimasukkan ke dalam persamaan yang sudah berisikan variabel-variabel lain.
  6. Stepwise regression. Sumbangan suatu variabel terhadap nilai F, kalau ditarik atau dimasukkan, dapat dijadikan sebagai bahan pertimbangan. Dengan memasukkan variabel, misalnya X2, nilai F meningkat signifikan, maka X2 Sebaliknya, kalau dengan mengeluarkan X3, nilai F meningkat, maka X3 tidak penting. Apabila kita menggunakan SPSS, kita bisa meminta SPSS untuk melakukan tugas ini dan menemukan mana prediktor paling berpengaruh.

 


Referensi

Fisher, R (1955). Statistical Methods and Scientific Induction. Journal of the Royal Statistical Society (Series B), 17 (1): 69–78

Higgins, J. (2005). The Radical Statisticians. Unleashing The Power of Applied Statistics in The Real World. The Higgins Group, LLC.

Osborne, J. W., & Waters, E. (2002). Four Assumptions of Multiple Regression That Researchers Should Always Test. Practical Assessment, Research, and Evaluation, 8, 1-15.

Pole, M.A., & O’Farrel, P.N. (1970). The Assumptions of the Linear Regression Model. Transaction of the British Institute of Geographers, 52, 145-158.

Rawlings, J.O., Pantula S.G., & Dickey, D.A. (1998). Applied Regression Analysis: A Research Tool. New York: Springer.

Roy, M. M., Liersch, M. J., & Broomell, S. (2013). People Believe That They Are Prototypically Good or Bad. Organizational behavior and human decision processes122(2), 200–213. https://doi.org/10.1016/j.obhdp.2013.07.004

Simon, S.N. (2003). Thin plate regression splines. Journal of Statistical Society, 65(1), 95-114. https://doi.org/10.1111/1467-9868.00374

White, H., & G. M. McDonald. (1980). Some large-sample tests for nonnormality in the linear regression model. Journal of American Statistical Association, 75, 16-28

Williams, Matt N., Grajales, Carlos Alberto Gómez, &Kurkiewicz, Dason (2013). Assumptions of multiple
regression: Correcting two misconceptions. Practical Assessment, Research & Evaluation, 18(11). https://doi.org/10.7275/55hn-wk47