BAB V
UJI ASUMSI KLASIK
1.
Rangkuman
Uji
asumsi klasik adalah persyaratan statistic yang harus dipenuhi pada analisis
regresi linier berganda yang berbasis Ordinary Least Square (OLS). Jadi analisis
regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik. Jika
dat yang diregresi tidak memenuhi asumsi yang telah disebutkan, maka regresi
yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah
memenuhi asumsi regresi maka nilai estimasi yang diperoleh bersifat BLUE yaitu
Best, Linear, Unbiased, Estimator.
Best
dimaksudkan sebagai yang terbaik dari analisis regresi linier digunakan untuk
menggambarkan sebaran data dalam bentuk garis regresi, garis regresi merupakan
cara memahami pola hubungan antara dua seri atau lebih. Hasil regresi dikatakan
best apabila garis regresi yang dihasilkan guna melakukan estimasi atau
peramalan dari sebaran data menghasilkan error yang kecil. Linear adalah model
yang digunakan dalam analisis regresi telah sesuai dengan kaidah model OLS
dimana variable penduganya hanya berpangkat satu. Unbiased atau tidak bias,
dikatakan unbiased jika nilai harapajn dari estimator b sama dengan nilai yang
benar dari b, jika rata-rata b tidak sama dengan b maika selisihnya itu disebut
biasnya. Estimator yang efisien dapat ditemukan apabila ketiga kondisi diatas
telah tercapai karena sifat estimator yang efisien merupakan hasil konklusi
dari ketiga hal sebelumnya.
Uji
Autokorelasi adalah keadaan dimana variable gangguan pada periode tertentu
berkorelasi dengan variable gangguan pada periode lain. Sifat autokorelasi
muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis
runtut waktu (time series) ataupun data kerat silang (cross section). Penyebab autokorelasi
yaitu 1) kesalahan pembentukan model. 2) tidak memasukan variable yang penting.
3) manipulasi data. 4) menggunakan data yang tidak empiris. Yang mengakibatkan
nilai t hitung akan menjadi bias, karena nilai t hitung diperoleh dari hasil
bagi Sb terhadap b (t = b/sb) , berhubung nilai Sb bias maka nilai t juga akan
bias atau bersifat tidak pasti (misleading)
Uji
Normalitas adalah untuk menguji apakah variable pengganggu (e) memiliki
distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum
ataupun setelah tahapan analisis regresi. Pengujian normalitas data ini
berdampak pada nilai t dan f karena pengujian terhadap keduanya diturunkan dari
asumsi bahwa data Y atau e berdistribusi normal. Dalam pengujian normalitas
mempunyai dua kemungkinan yaitu data berdistribusi normal atau tidak normal. Apabila
data normal maka tidak ada masalah karena uji t dan uji F dapat dilakukan ,
apabila data tidak normal maka diperlukan upaya mengatasi seperti memotong data
yang out liers, memperbesar sampel atau melakukan transformasi data.
Uji
heteroskedastisitas adaalah varaiance residual harus memiliki variable yang
konstanta atau dengan kata lain, rentangan e kurang lebih sama. Karena jika
variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas,
masalah tersebut muncul apabila kesalahan atau residual dari model yang diamati
tidak memiliki varias atau konstan dari satu observasi ke observasi lainnya. Masalah
tersebut sering muncul dalam data cross section. Konsekuensi yang didapatkan
apa bila masalah tersebut muncul akan mengakibatkan nilaiu Sb menjadi bias, akan
berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan, Karen nilai
t dihasilkan dari hasil bagi b dengan Sb. Untuk pendeteksian
heteroskedastisitas dengan melakukan berbagai cara seperti uji grafik, uji
park, uji glejser, uji spearman’s rank correlation dan uji whyte menggunakan
lagrange multiplier.
Multikolinearitas
adalah suatu keadaan dimana terjadi korelasi linear yang “perfect” atau eksak
diantara variabole penjelas yang dimasukan kedalam model. Tingkat kolinear
dikatakan lemah apabila masing masin gvariable penjelas hanya mempunyai sedikit
sifat – sifat yang sama. Apabila antar variable penjelas memiliki banyak sifat –
sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat
pengaruhnya terhadap Y, maka tingkat kolibnearnya dapat dikatakan serius atau
perfect atau sempurna. Sedamgkan tidak berkolinear jika antara variable
penjelas tidak mempunyai sama sekali kesamaan. Jika terjadi masalah makan
multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing
variable bebas dan nilai standart errornya (Sb) cenderung bias dalam arti tidak
dapat ditentukan kepastian nilainya.hal tersebut dapat dideteksi dengan cara
menganalisis matrix korelasi dengan pearson correlation atau dengan spearman’s
rho correlation, melakukan regresi partial dengan teknik auxiliary regression atau dapat pula dilakukan dengan
mengamati nilai variance inflation factor (VIF).
2.
Kesimpulan
Uji
asumsi klasik adalah persyaratan statistic yang harus dipenuhi pada analisis
regresi linier berganda yang berbasis Ordinary Least Square (OLS). Jadi analisis
regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik. Jika
dat yang diregresi tidak memenuhi asumsi yang telah disebutkan, maka regresi
yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah
memenuhi asumsi regresi maka nilai estimasi yang diperoleh bersifat BLUE yaitu
Best, Linear, Unbiased, Estimator.
3.
Jawaban
a. Asumsi
Klasik adalah persyaratan statistic yang harus dipenuhi pada analisis regresi
linier berganda yang berbasis OLS
b. Asumsi
asumsi yang ditetapkan :
-
linear regression model
-
nilai X
-
variable pengganggu e memiliki rata-rata
nilai 0
-
homoskedastisitas
-
tidak ada otokorelasi antara variable e
pada setiap nilai x dan j
-
variable x dan disturbance e tidak
berkorelasi
-
jumlah observasi / besar sampel (n0
harus lebih besar dari jumlah parameter yang diestimasi
-
variable x harus memiliki variabilirtas
-
model regresi secara benar telah
terspesifiikasi
-
tidak ada multikolinearitas antara
variable penjelas
c. Karena
penyimpangan masing masing asumsi tidak mempunyai dampak yang sama terhadap
regresi.
d. Autokorelasi
untuk melihat terjadinya korelasi antara suatu periode t dengan sebelumnya
(t-1). Secara sederhana bahwa analisis regresi adalah untuk melihat pengaruh
antar variable bebas terhadap variable terikat, jadi tidak boleh ada korelasi
antar observasi dengan data observasi sebelumnya.
e. Autokoerlasi
timbul karena terdapat gangguan autokorelasi pada model regresi yang diteliti
baik itu data jenis waktu ataupun data karet silang.
f. Mendeteksi
autokorelasi dengan danya ketergantunga atau kesalahan pengganggu yan gsecara
otomatis mempengaruhi data berikutnya.
g. Konsekuensi
adanya masalah autokorelasi dalam model yaitu nilai t hitung akan menjadi bias
karena niolai t diperoleh dari hasil bagi Sb terhadap b. berhubung nilai Sb
bias maka nilai t juga akan bias atau bersifat tidak pasti.
h. Heteroskedastistas
untuk melihaat apakah terdapat ketidaksamaan varians dari residual satu
pengamatan ke pengamatan yang lain.
i. Heteroskedastistas
muncul karena adanya kesalahan atau residual dari model yang diamati tidak
memiliki varian yang konstan dari satu observasi ke observasi lain.
j. Mendeteksi
masalah Heteroskedastistas dari data cross section karena masalah tersebut
lebih sering muncul di cross section daripada time series.
k. Konsekuensi
adanya masalah residua tau debiasi daari garis yang paling tepat muncul serta
random sesuai dengan besarnya variable-variable independen.
l. Mutikolinearitas
yaitu suatu keadaan dimana terjadi korelasi linear yang “perfect” atau eksak
diantara variable penjelas yang dimasukan kedalam model.
m. Mutikolinearitas
timbul karena tingkat kolinear dikatakan lemah apabila masing-masing variabole
penjelas hanya mempunyai sedikit sifat-sifat yang sama.
n. Mendeteksi
masaalah Mutikolinearitas dengan menganalisis matrix korelasi dengan pearson
correlation atau dengan supermans tho correation, melakukan regresi partial
dengan teknik auxiliary regression atau dapat pula dilakukan dengan mengamati
nilai variance inflation factor (VIF)
o. Konsekuensi
adanya masaalah Mutikolinearitas nilai koefisien regresi (b) masing – masing
variable bebas dan nilai standart errornya (sb) cenderung bias, dalam arti
tidak dapat ditentukan nilainya, sihingga akan berpengaruh pula terhadap nilai
t.
p. Normalitas
untuk melihat apakah nilai residual terdistribusi normal atau tidak , model
regresi yang baik adalah memiliki nilai residual yan terdistribusi normal.
q. Normalitas
timbul karena pengujian normalitas data dapat dilakukan sebelum ataupun setelah
tahapan analisis regresi.
r. Mendeteksi
masaalh normalitas dengan menggunakan metode numberik yang membandingkan nilai
statistic yaitu antara nilai median dengan nilai mean, menggunakan formula
jarque bera dan mengamati sebaran data.
s. Konsekuensi
ddari adanya masalah normalitas adalah pengujian normalitas ini berdamoak pada
nilai t dan F karena pengujian terthadap keduangan diturunkan dari asumsi bahwa
data Y atau e berdistribusi normal.
t. Cara
menangani jika data tersebut ternyata tidak normal diperlukan upaya untuk
mengatasi seperti memotong data out liers, memperbesar sampel atau melakukan
transformasi data.
Referensi :
uniba.ac.id