SELAMAT DATANG DI BLOG SASITO. BLOG YANG MENYAJIKAN CARA MEMBUAT DAN MEMODIFIKASI BLOG
INGATLAH !! PENGETAHUAN YANG DIPEROLEH HARI INI AKAN MEMPUNYAI MANFAAT YANG BESAR DI SUATU HARI NANTI.

Analisis Regresi

Analisis regresi merupakan salah satu metode statistik yang paling sering digunakan di dalam penelitian seperti sosial, ekonomi, politik dan lain-lain. Sepanjang sejarah umat manusia, orang melakukan penelitian tentang ada atau tidaknya hubungan antara dua hal, fenomena, kejadian atau lainnya, dan ada tidaknya pengaruh antara satu kejadian dengan kejadian yang lainnya. Untuk mempermudah dalam melakukan penghitungan suatu kejadian maka digunakan korelasi dan regresi dalam ilmu statistika. Korelasi merupakan teknik analisis yang termasuk dalam salah satu teknik pengukuran asosiasi atau hubungan (Measures of association). Teknik ini berguna untuk mengukur kekuatan hubungan antara dua variabel atau lebih dengan skala-skala tertentu. Regresi merupakan salah satu analisis yang bertujuan untuk mengetahui pengaruh suatu variabel terhadap variabel lain. Dalam analisis regresi, variabel yang mempengaruhi disebut  variabel bebas (independent variable) dan variabel yang dipengaruhi disebut variabel terikat (dependent variable). 
Regresi linier hanya dapat digunakan pada skala interval dan rasio.Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu dengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi linear berganda dengan beberapa variabel bebas dan satu buah variabel terikat.

Definisi Analisis Regresi
Analisis regresi adalah kajian terhadap hubungan satu variabel yang disebut dengan variabel yang diterangkan (the explained variable) dengan satu atau dua variabel yang menerangkan (the explanatory). Variabel pertama disebut juga sebagai variabel tergantung dan variabel kedua disebut juga sebagai variabel bebas (Arnita, 2013 : Hal. 142).
Analisis regresi merupakan studi ketergantungan satu atau lebih variabel X (variabel bebas) terhadap variabel Y (variabel terikat), dengan maksud untuk meramalkan nilai Y. Tujuan analisis regresi adalah mendapatkan pola hubungan secara matematis antara X dan Y, mengetahui besarnya perubahan variabel X terhadap Y, dan memprediksi Y jika nilai X diketahui. Sehingga dalam suatu persamaan regresi terdapat dua macam variabel, yaitu variabel dependen (variabel terikat, respon) dan variabel independen (variabel bebas, prediktor).

Prinsip dasar yang harus dipenuhi dalam membangun suatu persamaan regresi adalah bahwa antara variabel dependen dengan variabel independennya mempunyai sifat hubungan sebab akibat (hubungan kausalitas), baik yang didasarkan pada teori, hasil penelitian sebelumnya, ataupun yang didasarkan pada penjelasan logis tertentu. Syarat-syarat regresi antara lain data harus berbentuk interval atau rasio, data berdistribusi normal, adanya korelasi (hubungan) antar variabel, dan tidak terdapat korelasi antar variabel bebasnya ( multikolinearitas ) untuk regresi ganda (Abdul Munif).

Tujuan Dan Kegunaan Analisis Regresi
Analisis regresi dalam statistika adalah salah satu metode untuk menentukan hubungan sebab akibat antara satu variabel dengan variabel yang lain. Analisis regresi adalah salah satu analisis yang paling populer dan luas pemakaiannya. Hampir semua bidang ilmu yang memerlukan analisis. Analisis regresi dan analisis korelasi dikembangkan untuk mengkaji dan mengukur hubungan antara dua variabel atau lebih. Dalam analisis regresi dikembangkan persamaan estimasi untuk mendeskripsikan pola atau fungsi hubungan antara variabel-variabel. Sesuai dengan namanya, persamaan estimasi atau persamaan regresi itu digunakan untuk mengestimasi nilai dari suatu variabel berdasarkan nilai variabel lainnya. Variabel yang di estimasi itu disebut variabel dependen (atau variabel terikat) sedangkan variabel yang diperkirakan memengaruhi variabel dependen itu disebut variabel independen (atau variabel bebas) (Nur, 2009).

Ada beberapa tujuan penggunaan analisis regresi, antara lain :
  1. Membuat estimasi rata-rata dan nilai variabel tergantung dengan didasari pada nilai variabel bebas.
  2. Menguji hipotesis karakteristik dependensi.
  3. Untuk meramalkan nilai rata-rata variabel bebas dengan didasarkan pada nilai variabel bebas di luar jangkauan sampel (Arnita, 2013 : Hal. 142).
Persyaratan Penggunaan Regresi
Seorang peneliti yang menganalisis data penelitiannya dengan analisa regresi, harus mengacu kepada kriteria atau persyaratan agar hasil penelitiannya benar-benar dapat diterima masyarakat. Kriteria yang harus dipenuhi tersebut adalah instrumen penelitian (kuesioner) terlebih dahulu dilakukan uji validitas dan reliabilitas kemudian dilakukan uji asumsi klasik dan selanjutnya uji hipotesis (uji t dan uji F), membuat persamaan regresi dan menganalisis koefisien determinasi (R2).
Model kelayakan regresi linier didasarkan pada hal-hal sebagai berikut:

  1. Model regresi dikatakan layak jika angka signifikansi pada ANOVA sebesar < 0,05.
  2. Prediktor yang digunakan sebagai variabel bebas harus layak. Kelayakan ini diketahui jika angka Standard Error of Estimate < Standard Deviation
  3. Koefesien regresi harus signifikan. Pengujian dilakukan dengan Uji t. Koefesien regresi signifikan jika thitung > ttabel (nilai kritis). 
  4. Tidak boleh terjadi multikolinieritas, artinya tidak boleh terjadi korelasi yang sangat tinggi atau sangat rendah antar variabel bebas. Syarat ini hanya berlaku untuk regresi linier berganda dengan variabel bebas lebih dari satu. 
  5. Tidak terjadi otokorelasi. Terjadi otokorelasi jika angka Durbin dan Watson (DB) sebesar < 1 dan > 3. 
  6. Keselerasan model regresi dapat diterangkan dengan menggunakan nilai rm2 semakin besar nilai tersebut maka model semakin baik. Jika nilai mendekati 1 maka model regresi semakin baik. Nilai rm2 mempunyai karakteristik diantaranya: 
    • Selalu positif
    • Nilai rm2 maksimal sebesar 1. Jika Nilai r2 sebesar 1 akan mempunyai arti kesesuaian yang sempurna. Maksudnya seluruh variasi dalam variabel Y dapat diterangkan oleh model regresi. Sebaliknya jika rm2 sama dengan 0, maka tidak ada hubungan linier antara X dan Y.
  7. Terdapat hubungan linier antara variabel bebas (X) dan variabel tergantung (Y).
  8. Data harus berdistribusi normal.
  9. Data berskala interval atau rasio.
  10. Kedua variabel bersifat dependen, artinya satu variabel merupakan variabel bebas (disebut juga sebagai variabel prediktor) sedang variabel lainnya variabel tergantung (disebut juga sebagai variabel response) (Arnita, 2013 : Hal : 143-144).  
  11. Secara ringkas bahwa untuk menganalisis suatu penelitian dengan menggunakan analisis regresi, maka terlebih dahulu dilakukan beberapa uji persyaratan yang sering dikenal dengan uji asumsi klasik, yaitu:
    1. Uji Normalitas 
    Kolmogorov–Smirnov test (K-S test) merupakan pengujian statistik non-parametrik yang paling mendasar dan paling banyak digunakan. Pertama kali diperkenalkan dalam makalahnya Andrey Nikolaevich Kolmogorov pada tahun 1933 (Kolmogorov, A. N., 1992) dan kemudian ditabulasikan oleh Nikolai Vasilyevich Smirnov pada tahun 1948 (Smirnov, N., 1948). K-S test dimanfaatkan untuk uji satu sampel (one-sample test) yang memungkinkan perbandingan suatu distribusi frekuensi dengan beberapa distribusi terkenal, seperti distribusi normal (Stephens, 1992; Biswas, Ahmad, Molla, Hirose & Nasser, 2008). 
    Uji normalitas bertujuan untuk mengetahui normal atau tidaknya suatu distribusi data. Dasar pengambilan keputusan dari uji normalitas adalah : jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal, maka model regresi memenuhi asumsi normalitas. Selain itu dinyatakan normal apabila nilai probabilitas signifikansi > α (0,05) (Sarjono dan Julianita, 2011). 
    Uji normalitas menggunakan uji One-Sample Kolmogorov-Smirnov Test. Hasilnya dengan melihat nilai Asymp. Sig. (2-tailed), dinyatakan data berdistribusi normal apabila nilai Asymp. Sig. (2-tailed) > 0,05, dan sebaliknya data tidak berdistribusi normal apabila nilai Asymp. Sig. (2-tailed) < 0,05. Grafik untuk data dinyatakan berdistribusi normal apabila titik-titik data-data berada pada kisaran garis normal yang memenuhi batas atas dan batas bawah. Semakin mendekat pada garis normal, maka data berdistribusi normal seperti tampak pada gambar berikut ini :
    Selain itu apabila kita menggunakan sebuah ilustrasi maka akan terlihat seperti gambar di bawah ini dimana area hijau untuk area p-value dan area berarsir merah untuk area α. Data normal jika area hijau lebih luas atau menutupi area α, sebaliknya jika data tidak normal area hijau tidak lebih luas dari area α . 
    2. Uji Multikolieritas 
    Uji multikolinearitas adalah uji yang dilakukan untuk memastikan apakah di dalam sebuah model regresi ada interkorelasi atau kolinearitas antar variabel bebas. Interkorelasi adalah hubungan yang linier atau hubungan yang kuat antara satu variabel bebas atau variabel prediktor dengan variabel prediktor lainnya di dalam sebuah model regresi. Interkorelasi itu dapat dilihat dengan nilai koefisien korelasi antara variabel bebas, nilai VIF dan Tolerance, nilai Eigenvalue dan Condition Index, serta nilai standar error koefisien beta atau koefisien regresi parsial. Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel bebas (independent variable). Uji multikolinieritas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas (independen). Untuk menguji multikolinieritas dengan cara melihat nilai VIF masing-masing variabel independen, jika nilai VIF < 10, maka dapat disimpulkan data bebas dari gejala multikolinieritas (Ghozali, 2011 : Hal. 105-106). 
    3. Uji Heteroskedastisitas 
    Model regresi yang baik adalah terjadi homoskedastisitas dalam model, atau dengan perkataan lain tidak terjadi heteroskedastisitas. Pendeteksian terhadap gejala heteroskedastisitas menggunakan metode Glejser. Dasar pengambilan keputusan dari uji heteroskedastisitas adalah tidak terjadi gejala heteroskedastisitas apabila nilai probabilitas signifikansi > α (0.05) (Sarjono dan Julianita, 2011 : Hal. 66).
Dari hasil pengolahan data melalui analisa regresi, maka dapat diperoleh persamaan regresi yaitu :
Y = a + bX = e ..... (regresi sederhana / satu variabel bebas)
Y = a + bX1 + bX2 + bXn + e ....(regresi berganda /dua atau lebih variabel bebas)
Keterangan :
Y = Variabel Terikat
a = Nilai Konstanta
b = Koefisien regresi
X = Variabel bebas (1, 2, n)
NB : n = menunjukkan banyaknya variabel bebas yang akan diteliti.

Ada beberapa uji statistik yang dapat digunakan untuk menjawab hipotesis yang diajukan di dalam analisis regresi, yaitu Uji t (parsial/secara sendiri-sendiri) dan uji F (simultan/secara bersama-sama). Uji F adalah uji kelayakan model (goodness of fit) yang harus dilakukan dalam analisis regresi linier. Untuk analisis regresi linier sederhana, signifikansi pada Uji F sama hasilnya dengan signifikansi pada uji t. Penentuan arah pengujian adalah berdasarkan masalah penelitian, tujuan penelitian dan perumusan hipotesis. Jika hipotesis sudah menentukan arahnya, maka sebaiknya digunakan uji satu arah, tetapi jika hipotesis belum menentukan arah, maka sebaiknya menggunakan uji dua arah. Penentuan arah pada hipotesis berdasarkan tinjauan literatur. 
Contoh hipotesis dua arah : Terdapat pengaruh antara kepuasan terhadap kinerja. Contoh hipotesis satu arah: Terdapat pengaruh positif antara kepuasan terhadap kinerja. 
Nilai t tabel juga berbeda antara satu arah dan dua arah. Jika menggunakan signifikansi, maka signifikansi hasil output dibagi dua terlebih dahulu, baru dibandingkan dengan 5% (α = 0.05).
Pembahasan tentang masing-masing uji validitas dan reliabilitas, uji asumsi klasik di atas dapat dilihat pada halaman berikutnya dengan mengklik masing-masing : Uji Validitas dan Reliabilitas, Uji Normalitas, Uji Multikolinieritas, Uji Heteroskedastisitas, Uji t (parsial), Uji F (simultan).


Daftar Pustaka

  1. Arnita, (2013). Pengantar Statistika, Bandung : Citapustaka Media Perintis. 
  2. Abdul Munif, Bahan Kuliah : Statistik PPS ( t.t.: t.p., t.th.), hal. 74 
  3. Nur, Sunardi (2009) . Pengantar Statistika, Jakarta: Bumi Aksara, hal: 121.
  4. Sarjono, Haryadi dan Julianita, Winda, (2011), SPSS vs LISREL: Sebuah Pengantar, Aplikasi untuk Riset, Jakarta : Salemba Empat. 
  5. Kolmogorov, A. N. (1992). On the empirical determination of a distribution law. In A. N. Shiryayev (Ed.), Selected Works of A.N. Kolmogorov: Probability Theory and Mathematical Statistics (Vol. 2, pp. 139–146). Dordrecht, Netherlands : Kluwer Academic Publishers. Sumber dari http://link.springer.com/chapter/10.1007%2F978-94-011-2260-3_15#page-1 
  6. Smirnov, N. (1948). Table for estimating the goodness of fit of empirical distributions. The Annals of Mathematical Statistics, 19(2), 279–281. Sumber dari : http://www.jstor.org/stable/2236278 
  7. Ghozali, Imam, (2011). Aplikasi Analisis Multivariate Dengan Program IBM SPSS 19, Semarang : Universitas Diponegoro. 
  8. Sarjono, Haryadi dan Julianita, Winda, (2011). SPSS vs LISREL: Sebuah Pengantar Aplikasi untuk Riset. Jakarta : Salemba Empat

0 komentar:

Posting Komentar