Monday, April 1, 2019

Uji Multikolinearitas (skripsi dan tesis)

 Menurut Danang Sunyoto (2016:87) menjelaskan uji multikolinearitas sebagai berikut:
 “Uji asumsi klasik jenis ini diterapkan untuk analisis regresi berganda yang terdiri atas dua atau lebih variabel bebas atau independen variabel (X1,2,3,...,n) di mana akan di ukur keeratan hubungan antarvariabel bebas tersebut melalui besaran koefisien korelasi (r)". 
 Uji Multikolinearitas bertujuan untuk menguji apakah pada sebuah model regresi ditentukan adanya korelasi antar variabel independen. Jika terjadi korelasi, maka dinamakan terdapat problem multikolinearitas. Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel independen. Jika terbukti ada multikolinearitas, sebaiknya salah satu dari variabel independen yang ada dikeluarkan dari model, lalu pembuatan model regresi diulang kembali (Santoso. 2012). Untuk mendeteksi ada tidaknya multikolinearitas dapat dilihat dari besaran variance inflation factor (VIF) dan Tolerance. Pedoman suatu model regresi yang bebas multikolinearitas adalah mempunyai angka tolerance mendekati 1. Batas VIF adalah 10, jika nilai VIF dibawah 10, maka tidak terjadi Multikolinearitas., 
Menurut Imam Ghozali (2013:105) menyatakan untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi adalah sebagai berikut: 
1. "Jika R 2 yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel-variabel independen banyak yang tidak signifikan mempengaruhi variabel dependen. 
2. Menganalisis matrik korelasi variabel-variabel independen. Jika antar variabel independen ada korelasi yang cukup tinggi (umumnya diatas 0,90), maka hal ini mengindikasikan adanya multikolinearitas. Tidak adanya korelasi yang tinggi antar variabel independen tidak berarti bebas dari multikolinearitas. Multikolinearitas dapat disebabkan karena adanya efek kombinasi dua atau lebih variabel independen.
 3. Multikolinearitas juga dapat dilihat dari: 
   a) tolerance value dan lawanya 
  b) Variance Inflation Faktor (VIF). Tolerance mengukur variabilitas variabel independen yang terpilih yang tidak dijelaskan oleh variabel independen lainnya. Jadi nilai tolerance yang rendah sama dengan nilai VIF tinggi (karena 52 VIF=1/tolerance). 
Pengujian multikolinearitas dapat dilakukan sebagai berikut: 
  •  Tolerance value < 0,10 atau VIF > 10 : terjadi multikolinearitas.
  •  Tolerance value > 0,10 atau VIF < 10 : tidak terjadi multikolinearitas".

Uji Normalitas (skripsi dan tesis)

Menurut Danang Sunyoto (2016:92) menjelaskan uji normalitas sebagai berikut: 
"Selain uji asumsi klasik multikolinieritas dan heteroskedastisitas, uji asumsi klasik yang lain adalah uji normalitas, di mana akan menguji data variabel bebas (X) dan data variabel terikat (Y) pada persamaan regresi yang dihasilkan. Berdistribusi normal atau berdistribusi tidak normal. Persamaan regresi dikatakan baik jika mempunyai data 50 variabel bebas dan data variabel terikat berdistribusi mendekati normal atau normal sama sekali".

 Uji normalitas digunakan untuk menguji apakan distribusi variabel terkait untuk setiap variabel bebas tertentu berdistribusi normal atau tidak dalam model regresi linear, asumsi ini ditunjukkan oleh nilai eror yang berdistribusi normal. Uji normalitas bertujusn untuk menguji apakah distribusi variabel terikat untuk detiap nilai variabel bebas tertentu berdistribusi normal atau tidak. Model regresi yang baik adalah model regresi yang memiliki distribusi normal atau mendekati normal, sehingga layak dilakukan pengujian secara statistik. Pengujian normalitas data menggunakan Test of Normality Kolmogorov-Smirnov dan juga digunakan grafik, yaitu normal probability plot. menurut Singgih Santosa (2012:393) dasar pengambilan keputusan dilakukan berdasarkan probabilitas (Asymtotic Significanted), yaitu: 
1) Jika probabilitas > 0,05 maka distribusi dari model regresi adalah normal.
 2) Jika probabilitas < 0,05 maka distribusi dari model regresi adalah tidak n 

Uji Hipotesis (skripsi dan tesis)

  Uji hipotesis merupakan pengambilan keputusan yang didasarkan dari analisis data, baik dari perusahaan yang terkontrol maupun dari observasi yang tidak terkontrol.Pengujian hipotesis ini dimaksudkan untuk mengetahui kebenaran dan relevansi antara variabel independen yang diusulkan terhadap variabel dependen serta untuk mengetahui kuat lemahnya pengaruh masing-masing variabel independen terhadap variabel dependen. Sebagaimana yang dikemukakan oleh Sugiyono (2016: 63) hipotesis adalah: “...jawaban sementara terhadap rumusan masalah penelitian, dimana rumusan masalah penelitian telah dinyatakan dalam bentuk kalimat pertanyaan”. Hipotesis nol (H0) merupakan hipotesis yang menyatakan bahwa variabelvariabel independen tidak berpengaruh secara signifikan terhadap variabel dependen. Sedangkan hipotesis alternatif (Ha) merupakan hipotesis yang menyatakan bahwa variabel-variabel independen berpengaruh secara signifikan terhadap variabel dependen Hipotesis

Uji Autokorelasi (skripsi dan tesis)

Menurut Winarno (2015: 29) autokorelasi adalah: “...hubungan antara residual satu dengan residual observasi lainnya”. Salah satu asumsi dalam penggunaan model OLS (Ordinary Least Square) adalah tidak ada autokolerasi yang dinyatakan E (ei,ej) 0 dan i≠j, sedangkan apabila ada autokolerasi maka dilambangkan E (ei,ej) ≠ 0 dan i ≠ j. Dalam penelitian ini peneliti menggunakan Uji Durbin-Watson untuk menguji autokolerasinya. Uji Durbin-Watson merupakan salah satu uji yang banyak digunakan untuk mengetahui ada atau tidaknya autokolerasi (baik negatif atau positif).

Uji Heteroskedastisitas (skripsi dan tesis)

Menurut Ghozali (2011: 139) bahwa uji heterokedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan lain. Jika variance dari residual satu pengamatan ke pengamatan lain tetap, maka disebut homoskedastisitas dan jika tidak tetap maka disebut heterokedastisitas. Persamaan regresi yang baik adalah yang homoskedastisitas atau yang tidak terjadi heterokedastisitas. Untuk menguji heterodastisitas salah satunya dengan melihat penyebaran dari varians pada grafik scatterplot pada output SPSS. Dasar pengambilan keputusannya adalah sebagai berikut:
1. Jika pola tertentu, seperti titik-titik yang ada membentuk suatu pola tertentu yang teratur (bergelombang, melebar, kemudian menyempit), maka telah terjadi heteroskedastisitas.
 2. Jika tidak ada polda yang jelas, serta titik menyebar diatas dan dibawah angka nol, maka tidak terjadi heteroskedastisitas.
 Situasi heteroskedastisitas akan menyebabkan penaksiran koefisien koefisien regresi menjadi tidak efisien. Untuk menguji ada tidaknya 58 heteroskedastisitas juga bisa menggunakan uji rank-Spearman yaitu dengan mengkorelasikan variabel independen terhadap nilai absolut dari residual hasil regresi, jika nilai koefisien kolerasi antara variabel independen dengan nilai absolut dari residual signifikan, maka kesimpulannya terdapat heteroskedastisitas (Ghozali, 2011: 139)

Uji Multikolinearitas (skripsi dan tesis)

 Menurut Ghozali (2011: 105), uji multikolinieritas bertujuan untuk menguji apakah model regresi ditemukan adanya kolerasi antar variabel independen (bebas). Model regresi yang baik seharusnya tidak terjadi kolerasi diantara variabel independen (bebas). Jika variabel independen saling berkolerasi, maka variabelvariabel ini tidak orthogonal. Variabel orthogonal adalah variabel independen yang nilai kolerasi antar semua variabel independen sama dengan nol. Untuk mendeteksi ada tidaknya multikolinieritas dapat dilihat pada besaran Variance Inflation Factor (VIF) dan Tolerance. Pedoman suatu model regresi yang 57 bebas multikolinieritas adalah mempunyai angka tolerance mendekati 1, batas VIF adalah 10, jika nilai VIF dibawah 10, maka tidak terjadi gejala multikolinieritas

Uji Normalitas (skripsi dan tesis)


Uji normalitas dilakukan untuk menguji data variabel bebas (independen) dan variabel terikat (dependen) pada persamaan regresi yang dihasilkan, apakah
berdistribusi normal atau berdistribusi tidak normal. Dalam model regresi linier, asumsi ini ditunjukan oleh nilai error yang berdistribusi normal atau mendakati normal, sehingga layak dilakukan pengujian secara statistik. Pengujian normalitas data menggunakan Test Normality Kolmogorov-Smirnov dalam program SPSS.
Menurut Imam Ghozali (2011: 160) bahwa uji normalitas bertujuan untuk
menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji t dan uji f mengasumsikan bahwa nilai residual mengikuti distribusi normal. Persamaan regresi dikatakan baik jika mempunyai variabel bebas dan variabel terikat berdistribusi normal.
Menurut Singgih Santoso (2012: 393) dasar pengambilan keputusan dapat
dilakukan dengan melihat angka probabilitasnya, yaitu:
1. Jika probabilitas > 0,05 maka distribusi dari model regresi adalah normal.
2. Jika probabilitas < 0,05 maka distribusi dari model regresi adalah tidak normal.