UJI REGRESI BERGANDA MENGGUNAKAN SPSS

Assalamualaikum semuanya..., 
Kemarin ada yang reques tentang Uji regresi berganda dengan disertai gambarnya. Ini berbeda dengan artikel Uji Regresi Berganda & Uji Asumsi Klasik Menggunakan SPSS yang aku posting kemarin belum disertai gambar. Setelah saya revisi, akhirnya saya kasih beserta gambarnya.
Sementara untuk melihat Uji Asumsi Klasik Menggunakan SPSS silahkan Klik disini

Ini bisa diterapkan untuk Program SPSS versi 17 sampai yang terbaru...
Oke sob lansung saja ke TKP...           

UJI REGRESI BERGANDA MENGGUNAKAN SPSS

Cara melakukan uji regresi berganda :

1. Klik Analyze > Regression > Linear
2. Pengisian


  • Dependent: variabel tergantung 
  • Independent(s): variabel bebas
  • Case Labels: keterangan pada kasus
  • Method: tetap pada default yang ada, yaitu Enter

3. Klik Options dan diisi seperti berikut ini:
  • Stepping Method Criteria: pilih Use probability of F dan isi Entry: .05
  • Tetap pada default Include constant in equation
  • Missing value: Exclude cases pairwise
  • Klik Continue

4. Klik Statistics dan diisi seperti berikut ini:


  • Regression Coefficients: pilih Estimates 
  • Pilih Model Fit dan Descriptives
  • Residuals: pilih Durbin-Watson 
  • Klik Continue

5. Klik Plots, kemudian klik Produce all partial plots dan Normal Probability Plot, lalu klik Continue 

6. Klik OK

Sementara untuk gambar cara menganalisis hasil regresinya sengaja gak saya posting karena terlalu panjang, cukup dengan penjelasan dengan tulisan aja,..ok ini dia :

Cara menganalisis hasil regresi: 
1. Tabel Descriptive Statistics --> menampilkan mean (rata-rata), deviasi standar, dan jumlah sample (N). 

2. Tabel Correlations: 
  • Pearson Correlation: jika nilainya mendekati 1 maka hal ini menunjukkan bahwa ada hubungan yang erat antara variabel dependen dan independen 
  • Sig. (1-tailed): jika nilainya lebih kecil dari 0,05 maka terdapat korelasi antara variabel dependen dan independen
3. Tabel Model Summary:
  • R Square: menggambarkan bahwa ….% variabel y (dependen) dapat dijelaskan oleh variabel x (independen). Sedangkan sisanya (100%-….%) dijelaskan oleh variabel yang lain. R square berkisar pada angka 0 sampai 1, dengan catatan semakin kecil angka R square, semakin lemah hubungan kedua variabel.
  • Durbin-Watson: jika nilainya berada di antara -2 dan +2 maka tidak terjadi autokorelasi.
4. Tabel ANOVA:
  • Jika Sig. lebih kecil dari 0,05 maka model regresi dapat dipakai untuk memprediksi variabel y
  • Jika Sig. >0,05  maka model regresi tidak dapat dipakai untuk memprediksi variabel y
5. Tabel Coefficients
  • Jika Sig. Lebih kecil dari 0,05 maka variabel x benar-benar berpengaruh secara signifikan terhadap variabel y
  • Jika Sig. >0,05  maka variabel x tidak berpengaruh terhadap variabel y
6. Tabel Casewise Diagnostics:
Semakin kecil Residual atau Standardized Residual akan semakin baik bagi persamaan regresi dalam memprediksi data.

7. Grafik Normal P-P Plot of Regression Star
Jika sebaran data tersebar di sekeliling garis lurus (tidak terpencar jauh dari garis lurus) maka persyaratan Normalitas bisa dipenuhi.

8. Scatter plot
Jika tidak tampak adanya suatu pola tertentu pada sebaran data dan titik-titik menyebar di atas dan di bawah angka 0 pada sumbu y maka tidak terjadi heteroskedastisitas (Ghozali, 2005).

Referensi :
Ghozali, Imam. 2005. Aplikasi Analisis Multivariate dengan Program SPSS. Edisi 3. Badan Penerbit Universitas Diponegoro, Semarang. 

Santoso, Singgih. 2001. SPSS Versi 10, Mengolah Data Statistik secara Profesional. Penerbit PT. Elex Media Komputindo, Kelompok Gramedia, Jakarta. 

Suharyadi dan Purwanto S.K. 2009. Statistika: Untuk Ekonomi & Keuangan Modern, Buku 2. Edisi 2. Jakarta: Salemba Empat.