June 2017

Tuesday, June 13, 2017

BAB V . ASUMSI KLASIK


BAB V
UJI ASUMSI KLASIK

1.      Rangkuman
Uji asumsi klasik adalah persyaratan statistic yang harus dipenuhi pada analisis regresi linier berganda yang berbasis Ordinary Least Square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik. Jika dat yang diregresi tidak memenuhi asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi regresi maka nilai estimasi yang diperoleh bersifat BLUE yaitu Best, Linear, Unbiased, Estimator.
Best dimaksudkan sebagai yang terbaik dari analisis regresi linier digunakan untuk menggambarkan sebaran data dalam bentuk garis regresi, garis regresi merupakan cara memahami pola hubungan antara dua seri atau lebih. Hasil regresi dikatakan best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data menghasilkan error yang kecil. Linear adalah model yang digunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variable penduganya hanya berpangkat satu. Unbiased atau tidak bias, dikatakan unbiased jika nilai harapajn dari estimator b sama dengan nilai yang benar dari b, jika rata-rata b tidak sama dengan b maika selisihnya itu disebut biasnya. Estimator yang efisien dapat ditemukan apabila ketiga kondisi diatas telah tercapai karena sifat estimator yang efisien merupakan hasil konklusi dari ketiga hal sebelumnya.
Uji Autokorelasi adalah keadaan dimana variable gangguan pada periode tertentu berkorelasi dengan variable gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section). Penyebab autokorelasi yaitu 1) kesalahan pembentukan model. 2) tidak memasukan variable yang penting. 3) manipulasi data. 4) menggunakan data yang tidak empiris. Yang mengakibatkan nilai t hitung akan menjadi bias, karena nilai t hitung diperoleh dari hasil bagi Sb terhadap b (t = b/sb) , berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading)
Uji Normalitas adalah untuk menguji apakah variable pengganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Pengujian normalitas data ini berdampak pada nilai t dan f karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal. Dalam pengujian normalitas mempunyai dua kemungkinan yaitu data berdistribusi normal atau tidak normal. Apabila data normal maka tidak ada masalah karena uji t dan uji F dapat dilakukan , apabila data tidak normal maka diperlukan upaya mengatasi seperti memotong data yang out liers, memperbesar sampel atau melakukan transformasi data.
Uji heteroskedastisitas adaalah varaiance residual harus memiliki variable yang konstanta atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas, masalah tersebut muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varias atau konstan dari satu observasi ke observasi lainnya. Masalah tersebut sering muncul dalam data cross section. Konsekuensi yang didapatkan apa bila masalah tersebut muncul akan mengakibatkan nilaiu Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan, Karen nilai t dihasilkan dari hasil bagi b dengan Sb. Untuk pendeteksian heteroskedastisitas dengan melakukan berbagai cara seperti uji grafik, uji park, uji glejser, uji spearman’s rank correlation dan uji whyte menggunakan lagrange multiplier.
Multikolinearitas adalah suatu keadaan dimana terjadi korelasi linear yang “perfect” atau eksak diantara variabole penjelas yang dimasukan kedalam model. Tingkat kolinear dikatakan lemah apabila masing masin gvariable penjelas hanya mempunyai sedikit sifat – sifat yang sama. Apabila antar variable penjelas memiliki banyak sifat – sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolibnearnya dapat dikatakan serius atau perfect atau sempurna. Sedamgkan tidak berkolinear jika antara variable penjelas tidak mempunyai sama sekali kesamaan. Jika terjadi masalah makan multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variable bebas dan nilai standart errornya (Sb) cenderung bias dalam arti tidak dapat ditentukan kepastian nilainya.hal tersebut dapat dideteksi dengan cara menganalisis matrix korelasi dengan pearson correlation atau dengan spearman’s rho correlation, melakukan regresi partial dengan teknik auxiliary  regression atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF).
2.      Kesimpulan
Uji asumsi klasik adalah persyaratan statistic yang harus dipenuhi pada analisis regresi linier berganda yang berbasis Ordinary Least Square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik. Jika dat yang diregresi tidak memenuhi asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi regresi maka nilai estimasi yang diperoleh bersifat BLUE yaitu Best, Linear, Unbiased, Estimator.
3.      Jawaban
a.    Asumsi Klasik adalah persyaratan statistic yang harus dipenuhi pada analisis regresi linier berganda yang berbasis OLS
b.   Asumsi asumsi yang ditetapkan :
-          linear regression model
-          nilai X
-          variable pengganggu e memiliki rata-rata nilai 0
-          homoskedastisitas
-          tidak ada otokorelasi antara variable e pada setiap nilai x dan j
-          variable x dan disturbance e tidak berkorelasi
-          jumlah observasi / besar sampel (n0 harus lebih besar dari jumlah parameter yang diestimasi
-          variable x harus memiliki variabilirtas
-          model regresi secara benar telah terspesifiikasi
-          tidak ada multikolinearitas antara variable penjelas
c.    Karena penyimpangan masing masing asumsi tidak mempunyai dampak yang sama terhadap regresi.
d.   Autokorelasi untuk melihat terjadinya korelasi antara suatu periode t dengan sebelumnya (t-1). Secara sederhana bahwa analisis regresi adalah untuk melihat pengaruh antar variable bebas terhadap variable terikat, jadi tidak boleh ada korelasi antar observasi dengan data observasi sebelumnya.
e.    Autokoerlasi timbul karena terdapat gangguan autokorelasi pada model regresi yang diteliti baik itu data jenis waktu ataupun data karet silang.
f.    Mendeteksi autokorelasi dengan danya ketergantunga atau kesalahan pengganggu yan gsecara otomatis mempengaruhi data berikutnya.
g.   Konsekuensi adanya masalah autokorelasi dalam model yaitu nilai t hitung akan menjadi bias karena niolai t diperoleh dari hasil bagi Sb terhadap b. berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti.
h.   Heteroskedastistas untuk melihaat apakah terdapat ketidaksamaan varians dari residual satu pengamatan ke pengamatan yang lain.
i.     Heteroskedastistas muncul karena adanya kesalahan atau residual dari model yang diamati tidak memiliki varian yang konstan dari satu observasi ke observasi lain.
j.     Mendeteksi masalah Heteroskedastistas dari data cross section karena masalah tersebut lebih sering muncul di cross section daripada time series.
k.   Konsekuensi adanya masalah residua tau debiasi daari garis yang paling tepat muncul serta random sesuai dengan besarnya variable-variable independen.
l.     Mutikolinearitas yaitu suatu keadaan dimana terjadi korelasi linear yang “perfect” atau eksak diantara variable penjelas yang dimasukan kedalam model.
m. Mutikolinearitas timbul karena tingkat kolinear dikatakan lemah apabila masing-masing variabole penjelas hanya mempunyai sedikit sifat-sifat yang sama.
n.   Mendeteksi masaalah Mutikolinearitas dengan menganalisis matrix korelasi dengan pearson correlation atau dengan supermans tho correation, melakukan regresi partial dengan teknik auxiliary regression atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF)
o.   Konsekuensi adanya masaalah Mutikolinearitas nilai koefisien regresi (b) masing – masing variable bebas dan nilai standart errornya (sb) cenderung bias, dalam arti tidak dapat ditentukan nilainya, sihingga akan berpengaruh pula terhadap nilai t.
p.   Normalitas untuk melihat apakah nilai residual terdistribusi normal atau tidak , model regresi yang baik adalah memiliki nilai residual yan terdistribusi normal.
q.   Normalitas timbul karena pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
r.     Mendeteksi masaalh normalitas dengan menggunakan metode numberik yang membandingkan nilai statistic yaitu antara nilai median dengan nilai mean, menggunakan formula jarque bera dan mengamati sebaran data.
s.    Konsekuensi ddari adanya masalah normalitas adalah pengujian normalitas ini berdamoak pada nilai t dan F karena pengujian terthadap keduangan diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.

t.     Cara menangani jika data tersebut ternyata tidak normal diperlukan upaya untuk mengatasi seperti memotong data out liers, memperbesar sampel atau melakukan transformasi data.

Referensi :
uniba.ac.id 
http://supawi-pawenang.blogspot.co.id/

BAB IV . REGRESI LINEAR BERGANDA


BAB IV
REGRESI LINIER BERGANDA

1.      Rangkuman
Regresi linier berganda yaituvariable x berjumlah 2, 3 atau lebih. Jumlah X yang lebih dari satu tersebut terkenal dengan istilah Regresi Linier Berganda atau multiple linier regression. Bertambahnya jumolah variable X hingga lebih dari satu sangat memungkinkan karena dalam keilmuan sosisal semua faktor atau variable saling berkaitan atara satu dengan yang lainnya. Perubahan model dari bentuk single ke bentuk multiple mengalami beberapa perubahan : 1) jumlah variablenya bertambah sehingga spesifikasi model dan data terjadi perubahan. 2) rumus perhitungan nilai B mengalami perubahan. 3) Jumlah degree of freedom dalam menentukan t juga berubah.
Penulisan model regresi linbier berganda merupakan pengembahangn dari model regresi linier tunggal. Perbedaannya hanya terdapat pada jumlah variable x saja. Dalam regresi linier tunggal hanya satu X, tetapi dalam regresi linier berganda X lebih dari satu.
Perlu diingat bahwa penulisan model sangat beragam. Hal ini dapat dimengerti karena penulisan model sendiri hanya bertujuan sebagai teknik anotasi utuk memudahkan interpretasi.
Penghitungann nilai parameter menggunakan metode OLS dalam regresi linier berganda dimaksudkan untuk mendapatkan aturan dalam mengestimasi parameter yang tidak diketahui. Prinsip yang terkandung dalam OLS sendiri adalah untuk meminimalisasi perbedaan jumlah kuadrat kesalahan (sum of square) antara nilai observasi Y dengan Ŷ. Telah dikemukakan bahwa pencarian nilai b pada single linier berbeda dengan multiple linier. Perbedaan ini muncul karena jumlah variable penjelasnya bertambah. Semakin banyak variable X ini maka kemungkinan yang menjelaskan model juga mengalami perubahan. Dalam single linier kemunngkinan perubahan variable lain tidak terjadi, tetapi dalam multiple linier hal itu terjadi.
Besarnya a1 pada tahap ketiga inilah yang merupakan nilai pasti atau net effect dari perubahan 1 unit X1 terhadap Y, atau menunjukan kemiringan (slope) garis U atas terhadap variable X1. Logika dari teori tersebut yang mendasari rumus yang digunakan untuk menentukan koefisien regresi linier parsial (partial regression coefficient)
Nilai dari parameter b1 dan b2 merupakan nilai dari stau sampel. Nilai b1 dan b2 bergantung pada jumlah sampel yang ditarik. Penambahan atau pengurangan akan mengakibatkan perubahan rentangan nilai b. perubahan rentang nilai b1 dan b2 diukur dengan standart error. Semakin besar standart error mencerminkan nilai b sebagai penduga populasi semmakin kurang respresentatif, sebaliknya jika standart error semakin kecil maka keakuratan daya penduga nilai b terhadap populasi semakin tinggi. Perbandingan antara nilai b dan standart error ini memunculkan nilai t.
Nilai t merupakan hasil bagi antara b dengan sb, pencarian nilai t memounyai kesamaan dengan model regresi linier sederhana hanya saja pencarian sb nya yang berbeda. Dengan diketahuinya nilai t hitung masing-masing maka dapat digunkan untuk mengetahui signifikansi tidaknya variable penjelas dalam mempengaruhi variable terikat. Untuk dapat mengetahui apakah signifikan atau tidaknya nilai t hitung tersebbut maka perlu membandingkan dengann nilai t table.apakah niolai t hitung lebih besar dibandingkan dengan nilai t table, maka variable penjelas tersebut signifikan, sebalikanya jikai nilai t hitung jauh lebih kecil dari t table maka variable penjelas tersebut tidak signifikan.
Disamping menguji signifikansi dari masing-masing variable, kita dapat pula menguji determinasi selouruh variable penjelasnya yang ada dalam model regresi. Pengujian ini biasanta disimbolkan dengan koefisien regresi yang biasa disimbolkan deng R2. Koefisien determinasi pada dasarnya digunakan untuk mengukur goodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variable penjelas (X) terhadap variable yang dijelaskan (Y). koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau variasi Y terhadap explained sum of square (ESS) atau variasi yang dijelaskan Y. dengan demikian kita dapat mendefinisikan lagi R2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y. Total variasi Y (TSS) dapat diukutr menggunakan derajat deviasi dari masing-masing observasi nilai U dari rata-ratanya. Hasil ini kemudian dijumlahkan hingga mencakup seluruh observasi.
Pengujian tingkat signifikansi variable tidak hanya dilakukan secara individual saja, seperti dilakukan denga uji t, tetapi dapat pula dilakukan pengujian signifikansi semua variable penjelas secara serentak atau bersama-sama. Pengujian secara serentak tersebut dilakukan dengan teknik analisis of variance (ANOVA) melalui pengujian nilai F hitung yang divbandingkan dengan nilai F table. Pada prinsipnya teknik ANOVA digunakan untuk menguji distribusi atau variansi means dalam variable penjelas apakah secara proporsional telah signifikan menjelaskan variasi dari variable yang dijelaskan. Untuk memastikan jawabannya, maka perlu dihitung rasio antara variansi means (variance between means) yang dibandingkan dengan variasi di dalam kelompok variable (variance between group). Hasil pembandingan keduanya itu menghasilkan nilai F hitung yang kemudian dibandingkan dengan nilai F table. Jika nilai F hitung lebih besar dari nilai F tabel maka secara serentak  seluruh variable penjelas yabng ada dalam model signifikansi mempengaruhi variable terikat Y. sebaliknya jika nilai F hitung lebih kecil dari nilai F tabel maika tidak secara serentak sellurugh variable penjelas yang ada dalam model signifikansi memoengaruhi variable Y.

2.      Kesimpulan
Model regresi linier berganda

Penulisan model regresi linbier berganda merupakan pengembahangn dari model regresi linier tunggal. Perbedaannya hanya terdapat pada jumlah variable x saja. Dalam regresi linier tunggal hanya satu X, tetapi dalam regresi linier berganda X lebih dari satu.
Metode OLS

Prinsip yang terkandung dalam OLS sendiri adalah untuk meminimalisasi perbedaan jumlah kuadrat kesalahan (sum of square) antara nilai observasi Y dengan Ŷ. Telah dikemukakan bahwa pencarian nilai b pada single linier berbeda dengan multiple linier.
Nilai t

Nilai t merupakan hasil bagi antara b dengan sb, pencarian nilai t memounyai kesamaan dengan model regresi linier sederhana hanya saja pencarian sb nya yang berbeda. Dengan diketahuinya nilai t hitung masing-masing maka dapat digunkan untuk mengetahui signifikansi tidaknya variable penjelas dalam mempengaruhi variable terikat.
R2


Koefisien determinasi pada dasarnya digunakan untuk mengukur goodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variable penjelas (X) terhadap variable yang dijelaskan (Y).
Nilai F

Karena uji F adalah membandingkan antara nilai F hitung dengan nilai f tabel, maka penting untuk mengetahuo bagaimana nilai F hitung ataupun nilai F tabel.

3.      Jawaban Pertanyaan
a.       Regresi Linier Berganda adalah hubungan secara linier antar dua atau lebih variable indipenden (X1 , X2 . . . Xn) dengan variable dependen (Y)
b.      Model Regresi Linier Berganda

Y = A + B1 X1 + B2 X2 + . . . Bn Xn

c.       Arti notasi Model regresi
Y                     : Variable Dependen
X1 , X2 . . . Xn : Variable Independen
A                     : Konstanta
B                     : Koefisien Regresi

d.      Konstanta adalah nilai Y apabila X1 , X2 . . . Xn = 0
e.       Koefisien regresi adalah nilai peningkatan atau penurunan
f.       Regresi Linier sederhana : hanya melibatkan 2 variable
Regresi Linier berganda ; melibatkan 2 atau lebih variable
g.      Karena Jumlah variable penjelasannya bertambah, semakin banyak variable independent (X) maka kemungkinan – kemungkinan yang menjelaskan model juga mengalami pertambahan.
h.      Rumusan nila T mengalami perubahan karena nilai B1 dan B2 tergantung pada jumlah sampel yang ditarik.
i.        Rumus T
j.        Kegunaan nilai F : untuk melakukan pengujian signifikan semua variable penjelasan secara serentak atau bersama sama dengan menggunakan teknik Anova
k.      Menentukan nila t signifikan
l.        Rumusan determinasi (R2) antara regresi linier berganda dan sederhana itu sama karena mengukur proporsi variable dependen yang dijelaskan pleh variasi variable independen.

m.    Variable penjelas dapat dianggap sebagaui predictor terbaik dalam menjelas kan Y karena variable penjelas mewakili / signifikan terhadap Y sehingga diperlukan adanya pengkajian terlebih dahulu sebelum penelitian.

referansi :

http://supawi-pawenang.blogspot.co.id/