Uji Linearitas dengan Tabel ANOVA SPSS

Persamaan regresi dipergunakan untuk melihat bentuk pengaruh antar 1 atau beberapa variabel. Bentuk dari pengaruh tersebut dapat dilihat secara linier, logaritmik atau box tergantung dari data yang dimiliki dan asumsi yang diambil oleh peneliti. Asumsi linearitas sendiri adalah asumsi yang menyatakan bahwa hubungan antar variabel yang hendak dianalisis itu mengikuti garis lurus sehingga jika persamaan regresi yang diperoleh dibuat grafiknya, akan terlihat grafik yang berbentuk garis linier. Tabel Anova SPSS dapat membantu kita dalam memutuskan regresi tipe apa yang sebaiknya dipergunakan. Walaupun regresi linier memang yang paling banyak acuan litelaturnya dan cenderung lebih mudah, belum tentu data yang dimiliki dapat dijelaskan dengan baik oleh persamaan regresi linier.

Dengan menggunakan tabel ANOVA pada SPSS, akan dilihat nilai Sig. linearity & Sig. deviation from linearity dari setiap variabel bebas dengan variabel terikat dibandingan dengan tingkat signifikansi (α).  Nilai Sig. linearity menunjukkan sejauh mana variabel bebas berbanding tepat di garis lurus. Apabila nilai Sig. linearity lebih kecil dari tingkat signifikansi (α), maka regresi linier dapat dipergunakan untuk menjelaskan pengaruh antara variabel-variabel yang ada.

Sedangkan nilai Sig. deviation from linearity menunjukkan selinier apa data yang dipergunakan.  Apabila nilai Sig. deviation from linearity lebih besar dari tingkat signifikansi (α), maka regresi linier dapat dipergunakan untuk menjelaskan pengaruh antara variabel-variabel yang ada.

Baiklah, untuk lebih jelasnya, berikut contoh langkah-langkah untuk melakukan uji linearitas dengan buantuan software SPSS:

1. Masukkan data variabel bebas dan variabel terikat pada SPSS data editor. Pada contoh kali ini, jumlah datanya ada 10, terdapat 1 variabel bebas (X1) dan terdapat 1 variabel terikat (Y).

Linearitas1

2. Pilih menu Analyze, kemudian Compare Means, lalu Means…

Linearitas2

3. Masukkan semua variabel bebas ke kolom Independent List dan variabel terikat ke kolom Dependent List, kemudian klik Options…

Linearitas3

4. Checklist pilihan Test for linearity lalu klik Continue, kemudian klik OK.

Linearitas5

5. Akan muncul beberapa tabel pada keluaran. Perhatikan tabel ANOVA berikut:

Linearitas6

Bila α yang ditentukan adalah 5%, maka berdasarkan keluaran di atas, dapat disimpulkan bahwa data yang dipergunakan dapat dijelaskan oleh regresi linier dengan cukup baik karena nilai Sig. linearity data tersebut adalah sebesar 0,017 (lebih kecil dari 0,05) dan nilai Sig. deviation from linearity data tersebut adalah sebesar 0,315 (lebih besar dari 0,05). Selamat mencoba :).

Daftar Referensi

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Widhiarso, Wahyu.(2010). Catatan Pada Uji Linearitas Hubungan. Fakultas Psikologi UGM.

Iklan

Uji Otokorelasi dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji otokorelasi merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Otokorelasi terjadi apabila nilai variabel masa lalu memiliki pengaruh terhadap nilai variabel masa kini. Otokorelasi akan menyebabkan estimasi nilai ut yang terlalu rendah, dan karenanya menghasilkan estimasi yang terlalu tinggi untuk nilai koefisien korelasi. Bahkan ketika estimasi nilai variasi ut tidak terlalu rendah, maka estimasi nilai variasi dari koefisien regresi mungkin akan terlalu rendah, dan karenanya uji t dan uji F menjadi tidak valid lagi atau menghasilkan konklusi yang menyesatkan. Banyak orang menggunakan uji Durbin Watson untuk melakukan uji otokorelasi, namun adakalanya uji Durbin Watson memberikan hasil yang menyatakan bahwa data yang diuji tidak dapat dipastikan apakah lolos dari masalah otokorelasi atau tidak. Sebagai alternatif, kita dapat menggunakan uji run test, uji ini dipergunakan untuk melihat apakah data residual bersifat acak atau tidak. Bila tidak acak, berarti terjadi masalah autokorelasi. Residual regresi diolah dengan uji run test, kemudian dibandingkan dengan tingkat signifikasi (α) yang dipergunakan. Apabila nilai hasil uji run test lebih besar daripada tingkat signifikasi (α), maka tidak terdapat masalah otokorelasi pada data yang diuji.

Uji run test dapat dilakukan dengan lebih cepat bila kita dibantu oleh SPSS, terutama bila datanya ratusan atau bahkan ribuan. Secara sederhana, berikut contoh penggunaan SPSS dalam pengujian otokorelasi:

1. Masukkan data ke dalam SPSS Data Editor. Pada contoh ini terdapat 10 data, 1 variabel terikat (Y) dan 5 variabel bebas (X1, X2, X3, X4, X6).

Contoh Normalitas Residu 1

2. Regresikan data tersebut dengan memilih menu Analyze, kemudian Regression, lalu Linear…

Contoh Normalitas Residu 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Save….

Contoh Normalitas Residu 3

4. Checklist Unstandardized pada kolom Residuals, lalu klik Continue, kemudian pilih Ok sehingga keluar output regresi pada SPSS Statistics Viewer.

Contoh Normalitas Residu 4

5. Kembali periksa layar SPSS Data Editor, akan muncul kolom baru di bagian kanan dengan judul  RES_1, itu merupakan residual regresi. Pilih menu Analyze, kemudian Nonparametric Test, lalu Legacy Dialogs, kemudian klik Runs…

Otokorelasi 1

6. Pindahkan RES_1 ke kolom sebelah kanan lalu klik Ok.

Otokorelasi 2

7. Perhatikan keluaran uji run test di bawah ini, nilai yang dibandingkan adalah Asymp. Sig. (2-tailed) yaitu 0,737.

Otokorelasi 3

Bila α yang ditentukan adalah 5%, maka hasil run test lebih besar daripada 0,05. Dengan demikian, data yang dipergunakan cukup random sehingga tidak terdapat masalah otokorelasi pada data yang diuji. Gampang khannn :mrgreen:.

Daftar Referensi

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Murhadi, Werner. Pengujian Asumsi Regresi. (2011). Diakses: 30 Mei 2013. http://wernermurhadi.wordpress.com/2011/07/18/asumsi-klasik/

Uji Heterokedastisitas dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji heterokedastisitas merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Heteroskedastisitas terjadi apabila variasi residual regresi (ut) tidak konstan atau berubah-ubah secara sistematik seiring dengan berubahnya nilai variabel independen. Konsekuensi dari keberadaan heteroskedastisitas adalah analisis regresi akan menghasilkan estimator yang bias untuk nilai variasi udan dengan demikian variasi dari koefisien regresi. Akibatnya uji t, uji F dan estimasi nilai variabel dependen menjadi tidak valid. Uji yang dipergunakan adalah uji Spearman dimana dilakukan perhitungan dari korelasi rank spearman antara variabel absolut ut dengan variabel-variabel bebas. Kemudian nilai dari semua rank spearman tersebut dibandingkan dengan nilai signifikasi yang ditentukan. Masalah heterokedastisitas tidak terjadi bila nilai rank spearman antara variabel absolut residual regresi dengan variabel-variabel bebas lebih besar dari nilai signifikasi (α).

Untuk lebih jelasnya, mari kita lihat contoh di bawah ini:

1. Masukkan data ke dalam SPSS Data Editor. Pada contoh ini terdapat 10 data, 1 variabel terikat (Y) dan 5 variabel bebas (X1, X2, X3, X4, X6).

Contoh Normalitas Residu 1

2. Regresikan data tersebut dengan memilih menu Analyze, kemudian Regression, lalu Linear…

Contoh Normalitas Residu 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Save….

Contoh Normalitas Residu 3

4. Checklist Unstandardized pada kolom Residuals, lalu klik Continue, kemudian pilih Ok sehingga keluar output regresi pada SPSS Statistics Viewer.

Contoh Normalitas Residu 4

5. Kembali periksa layar SPSS Data Editor, akan muncul kolom baru di bagian kanan dengan judul  RES_1, itu merupakan residual regresi.Karena yang dibandingkan dengan metode Spearman adalah nilai absolut dari residual regresi, maka kita cari dulu berapa nilai absolut dari RES_1 dengan memilih menu Transform, lalu klik Compute Variable…

Heterokedastisitas 1

6. Ketik abs(RES_1) pada kolom Numeric Expression, kemudian ketiklah sebuah nama yang mudah diingat pada kolom Target Variable, kali ini saya contohkan namanya Absres. Kemudian klik Ok dan akan muncul 1 kolom lagi di sebelah kanan kolom RES_1 pada SPSS Data Editor dengan nama kolom sesuai nama yang kita masukkan pada  kolom Target Variable tadi.

Heterokedastisitas 2

7. Untuk mencari korelasi rank spearman, pilih menu Analyze, lalu Correlate, kemudian klik Bivariate…

Heterokedastisitas 3

6. Pindahkan semua variabel bebas dan Absres (nilai absolut residu regresi) ke sebelah kanan kemudian checklist Spearman pada kolom Correlation Coefficients, kemudian klik Ok.

Heterokedastisitas 4

7. Perhatikan kolom Correlations pada keluaran SPSS Statistics Viewer.

Heterokedastisitas 5

Berdasarkan tabel di atas, dapat diperoleh hasil bahwa korelasi rank spearman antara X1 dengan Ut adalah 0,266, korelasi rank spearman antara X2 dengan Ut adalah 0,244, korelasi rank spearman antara X3 dengan Ut adalah 0,318 dan seterusnya dapat diamati dengan cara yang sama untuk korelasi rank spearman antara Udengan variabel-variabel bebas lainnya. Misalkan nilai signifikasi (α) yang digunakan adalah 5%, maka masalah heterokesatisitas dapat dikatakan tidak terjadi karena semua nilai korelasi rank spearman lebih besar dari 0,05.

Agak panjang caranya, tapi semua menjadi lebih cepat dikerjakan dengan bantuan SPSS, tetap cemunguuudth! 🙂

Daftar Referensi

Elcom. (2010). Seri Belajar Kilat SPSS 18. Yogyakarta: Penerbit Andi.

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Uji Normalitas Residu dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji normalitas residu merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Asumsi normalitas gangguan atau error (ut) penting sekali sebab uji eksistensi model (uji F) maupun uji validitas pengaruh variabel independen (uji t), dan estimasi nilai variabel dependen mensyaratkan hal ini. Apabila asumsi ini tidak terpenuhi, baik uji F maupun uji t, dan estimasi nilai variabel dependen menjadi tidak valid. ut diperoleh dari regresi variabel-variabel yang ada yaitu:

Yt=  a + bX1t + cX2t + dX3t+ eX4t+ fX5t+gX6t + hX7t + ut

Uji normalitas yang dipergunakan adalah uji Jarque Bera. Nilai statistik Jarque Bera (JB) untuk ut diperoleh dengan persamaan:

Normalitas Residu 1

Dimana:

S = Skewness (Kemiringan).

K = Kurtosis (Keruncingan).

N = Banyaknya Data.

Nilai JB yang diperoleh kemudian dibandingkan dengan nilai tabel Chi Kuadrat. Apabila  lebih besar dari JB maka distribusi residual persamaan regresi tidak normal.

Nilai Skewness & Kurtosis dapat diperoleh dengan bantuan software SPSS. Berikut contoh langkah-langkahnya:

Karena nilai Skewness & Kurtosis diperoleh dengan menggunakan SPSS, maka untuk menghitung nilai JB, Kurtosis tidak perlu dikurangi 3 sehingga:

Normalitas Residu 2

Nilai JB kemudian dibandingkan dengan nilai Chi Kuadrat dengan df = 2 dan tingkat signifikasi tertentu bergantung dari penelitian dan data yang dipergunakan. Distribusi residu dikatakan normal bila JB lebih kecil dari nilai Chi Kuadrat yang diperoleh dari tabel Chi Kuadrat berikut:

Normalitas Residu 5

Diperoleh bahwa nilai Chi Kuadrat dengan df = 2 dan tingkat signifikansi (α) = 5% adalah 5,99. Chi Kuadrat dengan df = 2 dan tingkat signifikansi (α) = 1% adalah 9,21. Chi Kuadrat dengan df = 2 dan tingkat signifikansi (α) = 0,1% adalah 13,82.

Tingkat signifikansi (α) sendiri menunjukkan peluang kesalahan yang ditetapkan dalam mengambil keputusan untuk menolak atau mendukung hipotesis nol, atau dapat diartikan juga sebagai tingkat kesalahan atau tingkat kekeliruan yang ditolelir, yang diakibatkan oleh kemungkinan adanya kesalahan dalam pengambilan sampel. Sementara itu tingkat kepercayaan pada dasarnya menunjukkan tingkat kepercayaan sejauhmana statistik sampel dapat mengestimasi dengan benar parameter populasi. Dalam statistika, tingkat kepercayaan nilainya berkisar antara 0 sampai 100%. Secara konvensional, para peneliti dalam ilmu-ilmu sosial sering menetapkan tingkat kepercayaan antara 95% – 99%. Dalam penelitian dunia kedokteran, tingkat kepercayaan paling tidak harus bernilai 99%.

Untuk lebih jelasnya, mari kita lihat contoh di bawah ini:

1. Masukkan data ke dalam SPSS Data Editor. Pada contoh ini terdapat 10 data, 1 variabel terikat (Y) dan 5 variabel bebas (X1, X2, X3, X4, X6).

Contoh Normalitas Residu 1

2. Regresikan data tersebut dengan memilih menu Analyze, kemudian Regression, lalu Linear…

Contoh Normalitas Residu 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Save….

Contoh Normalitas Residu 3

4. Checklist Unstandardized pada kolom Residuals, lalu klik Continue, kemudian pilih Ok sehingga keluar output regresi pada SPSS Statistics Viewer.

Contoh Normalitas Residu 4

5. Kembali periksa layar SPSS Data Editor, akan muncul kolom baru di bagian kanan dengan judul  RES_1, itu merupakan resual regresi. Nilai itulah yang akan diuji normalitasnya. Lakukang pengujian dengan memilih Analyze, lalu Descriptive Statistics, kemudian klik Descriptives…

Contoh Normalitas Residu 5

6. Masukkan RES_1 ke kolom kanan lalu pilih Options…

Contoh Normalitas Residu 6

7. Checklist pilihan Kurtosis dan Skewness pada kolom Distribution, lalu klik Continue, kemudian klik Ok. Akan muncul kolom Descriptive Statistics pada SPSS Statistics Viewer. Nilai Skewnessnya adalah 0,727 dan Kurtosisnya adalah 0,486.

Contoh Normalitas Residu 8

8. Masukan ke dalam rumus JB berikut:

Contoh Normalitas Residu 9

Sehingga diperoleh nilai JB sebesar 0,987. Bila tingkat signifikasi yang dipilih adalah 5%, maka nilai Chi Kuadrat dengan df = 2 adalah sebesar 5,99. Nilai JB lebih kecil dari 5,99, maka tidak ada masalah normalitas residu pada data-data ini. Selamat mencoba 🙂

Daftar Referensi

Abdurahman, Maman, Muhidin, Sambas & Somantri, Ating. (2012). Dasar-Dasar Metode Statistika Untuk Penelitian. Bandung: CV. Pustaka Setia.

http://home.comcast.net/~sharov/PopEcol/tables/chisq.html

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Uji Multikolinearitas dengan SPSS

Ketika hasi estimasi statistik (hasil regresi) telah didapatkan, tidak dengan sendirinya hasil ini bisa digunakan sebagai dasar pengambilan keputusan. Hasil regrasi harus diuji untuk memastikan terpenuhinya asumsi klasik. Uji multikolinearitas merupakan salah satu uji asumsi klasik yang biasa dilakukan.

Masalah multikolinearitas muncul jika terdapat hubungan yang sempurna atau pasti di antara satu atau lebih variabel independen dalam model. Dalam kasus terdapat multikolinearitas yang serius, koefisien regresi tidak lagi menunjukkan pengaruh murni dari variabel independen dalam model. Dengan demikian, bila tujuan dari penelitian adalah mengukur arah dan besarnya pengaruh variabel independen secara akurat, masalah multikoliniearitas penting untuk diperhitungkan. Pilihan metode pengujian yang dapat dipergunakan antara lain adalah uji VIF (Variance Inflation Factor), uji Park dan uji CI (Condition Index). Kali ini saya akan membahas uji VIF dengan bantuan SPSS. Apabila nilai VIF di bawah 10, maka tidak terdapat masalah multikolinearitas.

Uji multikolinearitas dapat dilakukan dengan bantuan software SPSS.  Langkah-langkahnya antara lain adalah sebagai berikut:

1. Masukkan data variabel bebas dan variabel terikat pada SPSS data editor. Pada contoh kali ini, jumlah datanya ada 15, terdapat 4 variabel bebas (X1, X2, X3, X4) dan terdapat 1 variabel terikat (Y).

Regresi SPSS 1

2. Pilih menu Analyze, kemudian Regression, lalu Linear…

Regresi SPSS 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik Statistics….

Regresi SPSS 3

4. Checklist pilihan Collinearity diagnostics lalu klik Continue, kemudian klik OK.

Multikolinearitas 1

5. Akan muncul beberapa tabel pada keluaran. Perhatikan tabel Coefficients berikut:

Multikolinearitas 2

Nilai VIF X1 adalah 9,709, VIF X2 adalah 1,95, VIF X3 adalah 4,574 dan VIF X4 adalah 2,654. Semuanya lebih kecil dari 10 sehingga tidak ada masalah multikolinearitas. Nahh, gampang khan :mrgreen:.

Daftar Referensi

Elcom. (2010). Seri Belajar Kilat SPSS 18. Yogyakarta: Penerbit Andi.

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Analisis Korelasi dengan SPSS

Tidak hanya analisis regresi, analisis korelasi juga dapat dilakukan dengan bantuan SPSS. Berbeda dengan analisis regresi, analisis korelasi dimaksudkan untuk mengetahui seberapa kuatkah hubungan antara satu atau beberapa variabel dengan suatu variabel lain. Hal tersebut dilaksanakan dengan mencari koefisien korelasi antar variabel. Ada yang disebut koefisien korelasi simultan, ada yang disebut koefisien korelasi parsial. Koefisien korelasi simultan menunjukkan kekuatan hubungan antara semua variabel bebas dan variabel terikat yang ada, sedangkan koefisien korelasi parsial menunjukkan hubungan antara suatu variabel dengan suatu variabel lain ketika variabel lain yang tidak dicari koefisien korelasi parsialnya dianggap konstan.

Langkah-langkahnya untuk mencari koefisien parsial dengan menggunakan persamaan Pearson pada SPSS adalah sebagai berikut:

1. Masukkan data variabel bebas dan variabel terikat pada SPSS data editor. Pada contoh kali ini, jumlah datanya ada 12, terdapat 4 variabel bebas (X1,X2,X3,X4) dan terdapat 1 variabel terikat (Y).

Korelasi SPSS 1

2. Pilih Menu Analyze, kemudian Correlate, lalu Bivariate…

Korelasi SPSS 2

3. Masukkan semua variabel ke kolom Variables, checklist pilihan Pearson, kemudian klik OK.

Korelasi SPSS 3

4. Akan muncul keluaran dalam bentuk tabel Correlations berikut

Korelasi SPSS 4

Dari tabel di atas dapat diperoleh informasi bahwa:

  • Koefisien korelasi parsial antara Y dan X1 adalah 0,028. Hubungan antara X1 dengan Y ketika variabel bebas lainnya konstan adalah sangat lemah.
  • Koefisien korelasi parsial antara Y dan X2 adalah 0,06. Hubungan antara X2 dengan Y ketika variabel bebas lainnya konstan adalah sangat lemah.
  • Koefisien korelasi parsial antara Y dan X3 adalah 0,065. Hubungan antara X3 dengan Y ketika variabel bebas lainnya konstan adalah sangat lemah.
  • Koefisien korelasi parsial antara X2 dan X4 adalah 0,132. Hubungan antara X2 dengan X4 ketika variabel bebas lainnya konstan adalah sangat lemah.
  • Cara membaca informasi dan telaah yang sama, berlaku pula pada hubungan antara variabel-variabel lain yang ada pada tabel.

Sementara itu koefisien korelasi simultan dengan SPSS dapat diperoleh ketika mencari persamaan regresi-nya, hanya saja yang diperhatikan bukanlah kolom Coefficients pada keluaran, tapi kolom Model Summary. Kita ambil contoh sama seperti ketika saya menulis tentang “Analisis Regresi Linier dengan SPSS” kemarin sebagai berikut:

1. Masukkan data variabel bebas dan variabel terikat pada SPSS data editor. Pada contoh kali ini, jumlah datanya ada 15, terdapat 4 variabel bebas (X1, X2, X3, X4) dan terdapat 1 variabel terikat (Y).

Regresi SPSS 1

2. Pilih Menu Analyze, kemudian Regression, lalu Linear…

Regresi SPSS 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik OK.

Regresi SPSS 3

4. Akan muncul beberapa tabel pada keluaran. Perhatikan tabel Model Summary berikut

Regresi SPSS 5

Dari kolom keluaran SPSS di atas, dapat diperoleh informasi bahwa koefisien korelasi simultan adalah 0,973. Nilai ini menunjukkan bahwa hubungan antara semua variabel bebas denga variabel terikat adalah sangat kuat. Selain itu dapat diperoleh pula informasi berapa koefisien determinasi adalah sebesar (0,947)2 x 100% = 94,7%. Nilai ini menunjukkan bahwa kontribusi semua variabel bebas terhadap variabel terikat secara simultan adalah sebesar 94,7%. Sementara itu 5,3% sisanya merupakan kontribusi dari faktor-faktor lain selain faktor yang diwakili oleh variabel bebas pada contoh ini.

Perlu diingat bahwa SPSS dan analisis korelasi hanyalah merupakan alat bantu dalam menemukan sebab akibat. Nilai-nilai yang terdapat dapat kolom keluaran SPSS perlu dianalisa lebih lanjut sesuai teori dan logika yang melatarbelakangi dilakukannya analisis korelasi.

 Daftar Referensi

Abdurahman, Maman, Muhidin, Sambas & Somantri, Ating. (2012). Dasar-Dasar Metode Statistika Untuk Penelitian. Bandung: CV. Pustaka Setia.

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Siregar, Syofian. (2013). Statistik Parametrik untuk Penelitian Kualitatif. Jakarta: Bumi Aksara.

Analisis Regresi Linier dengan SPSS

Saat ini terdapat berbagai software yang dapat membantu perhitungan statistik, SPSS adalah salah satunya. Kali ini saya akan membahas bagaimana mencari persamaan regresi linier dengan bantuan SPSS. Persamaan regresi linier dipergunakan untuk melihat seperti apa besar dan bentuk pengaruh satu atau beberapa variabel bebas terhadap suatu variabel terikat dalam bentuk persamaan linier.

SPSS yang saya pergunakan adalah SPSS versi 21. Sebenarnya setiap versi pasti ada kelebihan dan kekurangannya tapi penggunaannya kurang lebih sama, tidak jauh berbeda. Berikut langkah-langkah yang dapat dilakukan:

1. Masukkan data variabel bebas dan variabel terikat pada SPSS data editor. Pada contoh kali ini, jumlah datanya ada 15, terdapat 4 variabel bebas (X1, X2, X3, X4) dan terdapat 1 variabel terikat (Y).

Regresi SPSS 1

2. Pilih Menu Analyze, kemudian Regression, lalu Linear…

Regresi SPSS 2

3. Masukkan semua variabel bebas ke kolom Independent(s) dan variabel terikat ke kolom Dependent, kemudian klik OK.

Regresi SPSS 3

4. Akan muncul keluaran dalam bentuk beberapa tabel. Perhatikan tabel Coefficients, nilai pada kolom B merupakan koefisien konstanta (a) dan koefisen-koefisien regresi masing-masing variabel bebas.

Regresi SPSS 4

Dengan melihat tabel output SPSS di atas, dapat diperoleh persamaan regresi sebagai berikut: Y =  13012035921 – 485540,039X1 – 20032,786X2 + 5202,78X3 – 112022,389X4

Besar nilai konstanta sebesar 13012035921 pada persamaan regresi di atas menunjukan bahwa pendapatan Y akan tetap sebesar 13012035921 tanpa adanya pengaruh dari variabel-variabel bebas. Bila variabel X1 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 485540,039. Bila variabel X2 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 20032,786. Bila variabel X3 meningkat sebesar 1 satuan, maka nilai Y akan bertambah sebesar 5202,78. Bila variabel X4 meningkat sebesar 1 satuan, maka nilai Y akan berkurang sebesar 112022,389.

Nah, gampang khan, ini jauh lebih cepat dibandingkan menghitung manual menggunakan matriks determinan. Selamat mencoba :D.

 Daftar Referensi

Abdurahman, Maman, Muhidin, Sambas & Somantri, Ating. (2012). Dasar-Dasar Metode Statistika Untuk Penelitian. Bandung: CV. Pustaka Setia.

Prihadi Utomo, Yuni. (2007). Eksplorasi Data dan Analisis Regresi dengan SPSS. Surakarta: Muhammadiyah University Pess.

Siregar, Syofian. (2013). Statistik Parametrik untuk Penelitian Kualitatif. Jakarta: Bumi Aksara.