Tuesday, June 13, 2017

BAB V . ASUMSI KLASIK


BAB V
UJI ASUMSI KLASIK

1.      Rangkuman
Uji asumsi klasik adalah persyaratan statistic yang harus dipenuhi pada analisis regresi linier berganda yang berbasis Ordinary Least Square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik. Jika dat yang diregresi tidak memenuhi asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi regresi maka nilai estimasi yang diperoleh bersifat BLUE yaitu Best, Linear, Unbiased, Estimator.
Best dimaksudkan sebagai yang terbaik dari analisis regresi linier digunakan untuk menggambarkan sebaran data dalam bentuk garis regresi, garis regresi merupakan cara memahami pola hubungan antara dua seri atau lebih. Hasil regresi dikatakan best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data menghasilkan error yang kecil. Linear adalah model yang digunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variable penduganya hanya berpangkat satu. Unbiased atau tidak bias, dikatakan unbiased jika nilai harapajn dari estimator b sama dengan nilai yang benar dari b, jika rata-rata b tidak sama dengan b maika selisihnya itu disebut biasnya. Estimator yang efisien dapat ditemukan apabila ketiga kondisi diatas telah tercapai karena sifat estimator yang efisien merupakan hasil konklusi dari ketiga hal sebelumnya.
Uji Autokorelasi adalah keadaan dimana variable gangguan pada periode tertentu berkorelasi dengan variable gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section). Penyebab autokorelasi yaitu 1) kesalahan pembentukan model. 2) tidak memasukan variable yang penting. 3) manipulasi data. 4) menggunakan data yang tidak empiris. Yang mengakibatkan nilai t hitung akan menjadi bias, karena nilai t hitung diperoleh dari hasil bagi Sb terhadap b (t = b/sb) , berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading)
Uji Normalitas adalah untuk menguji apakah variable pengganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Pengujian normalitas data ini berdampak pada nilai t dan f karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal. Dalam pengujian normalitas mempunyai dua kemungkinan yaitu data berdistribusi normal atau tidak normal. Apabila data normal maka tidak ada masalah karena uji t dan uji F dapat dilakukan , apabila data tidak normal maka diperlukan upaya mengatasi seperti memotong data yang out liers, memperbesar sampel atau melakukan transformasi data.
Uji heteroskedastisitas adaalah varaiance residual harus memiliki variable yang konstanta atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas, masalah tersebut muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varias atau konstan dari satu observasi ke observasi lainnya. Masalah tersebut sering muncul dalam data cross section. Konsekuensi yang didapatkan apa bila masalah tersebut muncul akan mengakibatkan nilaiu Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan, Karen nilai t dihasilkan dari hasil bagi b dengan Sb. Untuk pendeteksian heteroskedastisitas dengan melakukan berbagai cara seperti uji grafik, uji park, uji glejser, uji spearman’s rank correlation dan uji whyte menggunakan lagrange multiplier.
Multikolinearitas adalah suatu keadaan dimana terjadi korelasi linear yang “perfect” atau eksak diantara variabole penjelas yang dimasukan kedalam model. Tingkat kolinear dikatakan lemah apabila masing masin gvariable penjelas hanya mempunyai sedikit sifat – sifat yang sama. Apabila antar variable penjelas memiliki banyak sifat – sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolibnearnya dapat dikatakan serius atau perfect atau sempurna. Sedamgkan tidak berkolinear jika antara variable penjelas tidak mempunyai sama sekali kesamaan. Jika terjadi masalah makan multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variable bebas dan nilai standart errornya (Sb) cenderung bias dalam arti tidak dapat ditentukan kepastian nilainya.hal tersebut dapat dideteksi dengan cara menganalisis matrix korelasi dengan pearson correlation atau dengan spearman’s rho correlation, melakukan regresi partial dengan teknik auxiliary  regression atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF).
2.      Kesimpulan
Uji asumsi klasik adalah persyaratan statistic yang harus dipenuhi pada analisis regresi linier berganda yang berbasis Ordinary Least Square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik. Jika dat yang diregresi tidak memenuhi asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi regresi maka nilai estimasi yang diperoleh bersifat BLUE yaitu Best, Linear, Unbiased, Estimator.
3.      Jawaban
a.    Asumsi Klasik adalah persyaratan statistic yang harus dipenuhi pada analisis regresi linier berganda yang berbasis OLS
b.   Asumsi asumsi yang ditetapkan :
-          linear regression model
-          nilai X
-          variable pengganggu e memiliki rata-rata nilai 0
-          homoskedastisitas
-          tidak ada otokorelasi antara variable e pada setiap nilai x dan j
-          variable x dan disturbance e tidak berkorelasi
-          jumlah observasi / besar sampel (n0 harus lebih besar dari jumlah parameter yang diestimasi
-          variable x harus memiliki variabilirtas
-          model regresi secara benar telah terspesifiikasi
-          tidak ada multikolinearitas antara variable penjelas
c.    Karena penyimpangan masing masing asumsi tidak mempunyai dampak yang sama terhadap regresi.
d.   Autokorelasi untuk melihat terjadinya korelasi antara suatu periode t dengan sebelumnya (t-1). Secara sederhana bahwa analisis regresi adalah untuk melihat pengaruh antar variable bebas terhadap variable terikat, jadi tidak boleh ada korelasi antar observasi dengan data observasi sebelumnya.
e.    Autokoerlasi timbul karena terdapat gangguan autokorelasi pada model regresi yang diteliti baik itu data jenis waktu ataupun data karet silang.
f.    Mendeteksi autokorelasi dengan danya ketergantunga atau kesalahan pengganggu yan gsecara otomatis mempengaruhi data berikutnya.
g.   Konsekuensi adanya masalah autokorelasi dalam model yaitu nilai t hitung akan menjadi bias karena niolai t diperoleh dari hasil bagi Sb terhadap b. berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti.
h.   Heteroskedastistas untuk melihaat apakah terdapat ketidaksamaan varians dari residual satu pengamatan ke pengamatan yang lain.
i.     Heteroskedastistas muncul karena adanya kesalahan atau residual dari model yang diamati tidak memiliki varian yang konstan dari satu observasi ke observasi lain.
j.     Mendeteksi masalah Heteroskedastistas dari data cross section karena masalah tersebut lebih sering muncul di cross section daripada time series.
k.   Konsekuensi adanya masalah residua tau debiasi daari garis yang paling tepat muncul serta random sesuai dengan besarnya variable-variable independen.
l.     Mutikolinearitas yaitu suatu keadaan dimana terjadi korelasi linear yang “perfect” atau eksak diantara variable penjelas yang dimasukan kedalam model.
m. Mutikolinearitas timbul karena tingkat kolinear dikatakan lemah apabila masing-masing variabole penjelas hanya mempunyai sedikit sifat-sifat yang sama.
n.   Mendeteksi masaalah Mutikolinearitas dengan menganalisis matrix korelasi dengan pearson correlation atau dengan supermans tho correation, melakukan regresi partial dengan teknik auxiliary regression atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF)
o.   Konsekuensi adanya masaalah Mutikolinearitas nilai koefisien regresi (b) masing – masing variable bebas dan nilai standart errornya (sb) cenderung bias, dalam arti tidak dapat ditentukan nilainya, sihingga akan berpengaruh pula terhadap nilai t.
p.   Normalitas untuk melihat apakah nilai residual terdistribusi normal atau tidak , model regresi yang baik adalah memiliki nilai residual yan terdistribusi normal.
q.   Normalitas timbul karena pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
r.     Mendeteksi masaalh normalitas dengan menggunakan metode numberik yang membandingkan nilai statistic yaitu antara nilai median dengan nilai mean, menggunakan formula jarque bera dan mengamati sebaran data.
s.    Konsekuensi ddari adanya masalah normalitas adalah pengujian normalitas ini berdamoak pada nilai t dan F karena pengujian terthadap keduangan diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.

t.     Cara menangani jika data tersebut ternyata tidak normal diperlukan upaya untuk mengatasi seperti memotong data out liers, memperbesar sampel atau melakukan transformasi data.

Referensi :
uniba.ac.id 
http://supawi-pawenang.blogspot.co.id/

BAB IV . REGRESI LINEAR BERGANDA


BAB IV
REGRESI LINIER BERGANDA

1.      Rangkuman
Regresi linier berganda yaituvariable x berjumlah 2, 3 atau lebih. Jumlah X yang lebih dari satu tersebut terkenal dengan istilah Regresi Linier Berganda atau multiple linier regression. Bertambahnya jumolah variable X hingga lebih dari satu sangat memungkinkan karena dalam keilmuan sosisal semua faktor atau variable saling berkaitan atara satu dengan yang lainnya. Perubahan model dari bentuk single ke bentuk multiple mengalami beberapa perubahan : 1) jumlah variablenya bertambah sehingga spesifikasi model dan data terjadi perubahan. 2) rumus perhitungan nilai B mengalami perubahan. 3) Jumlah degree of freedom dalam menentukan t juga berubah.
Penulisan model regresi linbier berganda merupakan pengembahangn dari model regresi linier tunggal. Perbedaannya hanya terdapat pada jumlah variable x saja. Dalam regresi linier tunggal hanya satu X, tetapi dalam regresi linier berganda X lebih dari satu.
Perlu diingat bahwa penulisan model sangat beragam. Hal ini dapat dimengerti karena penulisan model sendiri hanya bertujuan sebagai teknik anotasi utuk memudahkan interpretasi.
Penghitungann nilai parameter menggunakan metode OLS dalam regresi linier berganda dimaksudkan untuk mendapatkan aturan dalam mengestimasi parameter yang tidak diketahui. Prinsip yang terkandung dalam OLS sendiri adalah untuk meminimalisasi perbedaan jumlah kuadrat kesalahan (sum of square) antara nilai observasi Y dengan Ŷ. Telah dikemukakan bahwa pencarian nilai b pada single linier berbeda dengan multiple linier. Perbedaan ini muncul karena jumlah variable penjelasnya bertambah. Semakin banyak variable X ini maka kemungkinan yang menjelaskan model juga mengalami perubahan. Dalam single linier kemunngkinan perubahan variable lain tidak terjadi, tetapi dalam multiple linier hal itu terjadi.
Besarnya a1 pada tahap ketiga inilah yang merupakan nilai pasti atau net effect dari perubahan 1 unit X1 terhadap Y, atau menunjukan kemiringan (slope) garis U atas terhadap variable X1. Logika dari teori tersebut yang mendasari rumus yang digunakan untuk menentukan koefisien regresi linier parsial (partial regression coefficient)
Nilai dari parameter b1 dan b2 merupakan nilai dari stau sampel. Nilai b1 dan b2 bergantung pada jumlah sampel yang ditarik. Penambahan atau pengurangan akan mengakibatkan perubahan rentangan nilai b. perubahan rentang nilai b1 dan b2 diukur dengan standart error. Semakin besar standart error mencerminkan nilai b sebagai penduga populasi semmakin kurang respresentatif, sebaliknya jika standart error semakin kecil maka keakuratan daya penduga nilai b terhadap populasi semakin tinggi. Perbandingan antara nilai b dan standart error ini memunculkan nilai t.
Nilai t merupakan hasil bagi antara b dengan sb, pencarian nilai t memounyai kesamaan dengan model regresi linier sederhana hanya saja pencarian sb nya yang berbeda. Dengan diketahuinya nilai t hitung masing-masing maka dapat digunkan untuk mengetahui signifikansi tidaknya variable penjelas dalam mempengaruhi variable terikat. Untuk dapat mengetahui apakah signifikan atau tidaknya nilai t hitung tersebbut maka perlu membandingkan dengann nilai t table.apakah niolai t hitung lebih besar dibandingkan dengan nilai t table, maka variable penjelas tersebut signifikan, sebalikanya jikai nilai t hitung jauh lebih kecil dari t table maka variable penjelas tersebut tidak signifikan.
Disamping menguji signifikansi dari masing-masing variable, kita dapat pula menguji determinasi selouruh variable penjelasnya yang ada dalam model regresi. Pengujian ini biasanta disimbolkan dengan koefisien regresi yang biasa disimbolkan deng R2. Koefisien determinasi pada dasarnya digunakan untuk mengukur goodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variable penjelas (X) terhadap variable yang dijelaskan (Y). koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau variasi Y terhadap explained sum of square (ESS) atau variasi yang dijelaskan Y. dengan demikian kita dapat mendefinisikan lagi R2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y. Total variasi Y (TSS) dapat diukutr menggunakan derajat deviasi dari masing-masing observasi nilai U dari rata-ratanya. Hasil ini kemudian dijumlahkan hingga mencakup seluruh observasi.
Pengujian tingkat signifikansi variable tidak hanya dilakukan secara individual saja, seperti dilakukan denga uji t, tetapi dapat pula dilakukan pengujian signifikansi semua variable penjelas secara serentak atau bersama-sama. Pengujian secara serentak tersebut dilakukan dengan teknik analisis of variance (ANOVA) melalui pengujian nilai F hitung yang divbandingkan dengan nilai F table. Pada prinsipnya teknik ANOVA digunakan untuk menguji distribusi atau variansi means dalam variable penjelas apakah secara proporsional telah signifikan menjelaskan variasi dari variable yang dijelaskan. Untuk memastikan jawabannya, maka perlu dihitung rasio antara variansi means (variance between means) yang dibandingkan dengan variasi di dalam kelompok variable (variance between group). Hasil pembandingan keduanya itu menghasilkan nilai F hitung yang kemudian dibandingkan dengan nilai F table. Jika nilai F hitung lebih besar dari nilai F tabel maka secara serentak  seluruh variable penjelas yabng ada dalam model signifikansi mempengaruhi variable terikat Y. sebaliknya jika nilai F hitung lebih kecil dari nilai F tabel maika tidak secara serentak sellurugh variable penjelas yang ada dalam model signifikansi memoengaruhi variable Y.

2.      Kesimpulan
Model regresi linier berganda

Penulisan model regresi linbier berganda merupakan pengembahangn dari model regresi linier tunggal. Perbedaannya hanya terdapat pada jumlah variable x saja. Dalam regresi linier tunggal hanya satu X, tetapi dalam regresi linier berganda X lebih dari satu.
Metode OLS

Prinsip yang terkandung dalam OLS sendiri adalah untuk meminimalisasi perbedaan jumlah kuadrat kesalahan (sum of square) antara nilai observasi Y dengan Ŷ. Telah dikemukakan bahwa pencarian nilai b pada single linier berbeda dengan multiple linier.
Nilai t

Nilai t merupakan hasil bagi antara b dengan sb, pencarian nilai t memounyai kesamaan dengan model regresi linier sederhana hanya saja pencarian sb nya yang berbeda. Dengan diketahuinya nilai t hitung masing-masing maka dapat digunkan untuk mengetahui signifikansi tidaknya variable penjelas dalam mempengaruhi variable terikat.
R2


Koefisien determinasi pada dasarnya digunakan untuk mengukur goodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variable penjelas (X) terhadap variable yang dijelaskan (Y).
Nilai F

Karena uji F adalah membandingkan antara nilai F hitung dengan nilai f tabel, maka penting untuk mengetahuo bagaimana nilai F hitung ataupun nilai F tabel.

3.      Jawaban Pertanyaan
a.       Regresi Linier Berganda adalah hubungan secara linier antar dua atau lebih variable indipenden (X1 , X2 . . . Xn) dengan variable dependen (Y)
b.      Model Regresi Linier Berganda

Y = A + B1 X1 + B2 X2 + . . . Bn Xn

c.       Arti notasi Model regresi
Y                     : Variable Dependen
X1 , X2 . . . Xn : Variable Independen
A                     : Konstanta
B                     : Koefisien Regresi

d.      Konstanta adalah nilai Y apabila X1 , X2 . . . Xn = 0
e.       Koefisien regresi adalah nilai peningkatan atau penurunan
f.       Regresi Linier sederhana : hanya melibatkan 2 variable
Regresi Linier berganda ; melibatkan 2 atau lebih variable
g.      Karena Jumlah variable penjelasannya bertambah, semakin banyak variable independent (X) maka kemungkinan – kemungkinan yang menjelaskan model juga mengalami pertambahan.
h.      Rumusan nila T mengalami perubahan karena nilai B1 dan B2 tergantung pada jumlah sampel yang ditarik.
i.        Rumus T
j.        Kegunaan nilai F : untuk melakukan pengujian signifikan semua variable penjelasan secara serentak atau bersama sama dengan menggunakan teknik Anova
k.      Menentukan nila t signifikan
l.        Rumusan determinasi (R2) antara regresi linier berganda dan sederhana itu sama karena mengukur proporsi variable dependen yang dijelaskan pleh variasi variable independen.

m.    Variable penjelas dapat dianggap sebagaui predictor terbaik dalam menjelas kan Y karena variable penjelas mewakili / signifikan terhadap Y sehingga diperlukan adanya pengkajian terlebih dahulu sebelum penelitian.

referansi :

http://supawi-pawenang.blogspot.co.id/

Thursday, April 13, 2017

BAB III . MODEL REGRESI DENGAN DUA VARIABLE


BAB III
MODEL REGRESI DENGAN DUA VARIABLE

1.      Rangkuman
Model regresi dengan dua variable umumnya dituliskan dengan simbol berbeda berdasarkan sumber data yang digunakan  meskipun tetap dituliskan dalam persamaan fungsi regresi.
Fungsi regresi yang menggunakan data populasi (FPR)
            Y = A + BX + ε
Fungsi regresi yang menggunakan data sample (FRS)
            Y = a + bX + e
Meskipun penulisan simbol konstanta regresinya agak berbeda namun penghitungannya menggunakan metode yang sama yaitu Ordinary Least Square dan  Maximum Likelihood, dengan penjabaran sebagai berikut :
Metode Kuadrat Terkecil Biasa (Ordinary Least Square) (OLS) yaitu penghitungan konstanta (a) dalam satu fungsi regresi (b) linier sederhana dngan rumus :
atau    

Untuk mencari nilai b :

Sedangkan untuk mencari nilai a :

Untuk mencari b dengan rumus ke 2 :




Rumus a kedua :

Prinsip metode OLS sebagai berikut :
-          Analisis dilakukan dengan regresi
-          Hasil regresi akan menghasilkan garis regresi
Untuk menguji signifikansi variable X dala mempengaruhi Y dapat dibedakan menjadi dua yaitu dengan pengaruh secara individual dan pengaruh secara bersama-sama, seperti metode dengan membandingkan antara nilai statistik (nilai hitung) dengan nilai tabel.

Untuk menguji hipotesis bahwa b secara statistik signifika, perlu menghitung standar error atau standar deviasi dari b yang dirumuskan sebagai berikut :
        
atau

Yt dan Xt= data variable dependen dan independen pada periode t
Ý = nilai variable dependen pada periode t yang dapat dari perkirakan garis regresi
X= merupakan nilai tengan (mean) dari variable independen
e atau Yt – Ýt = error term
n = jumlah data observasi
k = jumlah perkiraan koefisien regresi yang meliputi a dan b
(n – k) = degrees of freedom (df)
Setelah analisis regresi dilakukan sesuai teori-teori relevan maka selanjutnya adalah menginterpretasi untuk mengetahui informasi-informasi yang terkandung dalamhasil regresi  melalui pengertian angka-angka parameternya.
Koefisiensi determinasi (R2) membahas hasil regresi yang menunjukan seberapa besa a,b dan t. Nilai a menjelaskan tentang seberapa besar faktor-faktor yang bersifat tetap mempengaruhi variable Ysedangkan nilai b mencerminkan tingkat elastisitas variable X, sedangkan nilai t sendiri untuk mempertegas signifikan tidaknya terhadap variable X dalam mempengaruhi Y.
Koefisiensi determinasi (R2)pada intinya mengukur seberapa jauh kemampuan model dalam menerangkan variasi variable terikat. Besarnya nilai koefisien determinasi adalah diantara no dan satu (0 <R2<1). Bilai R2yang mendekati 0 menunjukan kemampuan variable-variable independen dalam menjelaskan variasi variable dependen amat terbatas, sedangkan nilai yang mendekati angka 1 menunjukan variable-variable independen memuat hampir semua informasi yang dibutuhkan untuk memprediksi variasi cariable independen. Beararti R2menunjukan proporsi variable dependen yang dijelaskan oleh variasi variable independen.

2.      Simpulan

3.      Jawabanpertanyaan :
a.       Regresi Linier Sederhana yaitu metode statistik yang berfungsi untuk menguji sejauh mana hubungan sebab akibat antara Variable Faktor Penyebab (X) terhadap variable akibatnya. Faktor penyebab (X) atau disebut predictor sedangkan variable akbit (Y) atau disebut response.

b.      Metode Regresi Linier Sederhana :
Fungsi regresi yang menggunakan data populasi (FPR)
      Y = A + BX + ε
Fungsi regresi yang menggunakan data sample (FRS)
      Y = a + bX + e

c.       Arti Notasi :
-          A : konstanta / intercept
-          B : koefisien regresi /  independen
-          Y : variable dependen
-          X : variable independen

d.      Konstanta sebesar -9,527 ini jika budem X nilainya adalah 0, maka inflasi (Y’) nilai negativenya sebesar -9,527

e.       Koefisien Regresi Variable (X) sebesar 1,450 : artinya jika mengalami kenaikan 1% maka volume inflasi (Y’) akan mengalami peningkatan 1,450%. Koefisiensi bernilai positive artinya terjadi hubungan positive antara BuDep dan Inflasi, semakin naik BuDep semakin naik Inflasi.

f.       Kegunaan Standar Error SB yaitu untuk menguji hipotesis secara statistik dan signifikan dengan rumus sebagai berikut :
                                                                           
                                                                           atau




g.      Kegunaan Nilai t untuk mengetahui apakah variable independen (X) berpengaruh secara signifikan terhadap variable dependen (Y). Signifikan berarti pengaruh yang terjadi dapat berlaku untuk populasi (dapat di generalisasikan)

h.      Cara menentukan nilai t yang signifikan :
-          Menentukan Hipotesis
Ho : ada pengaruh secara signifikan antara biaya promosi dengan volume penjualan
Ha : tidak ada pengaruh secara signifikan antara BuDep dengan inflasi
-          Menentukan tingkat signifikan
Tingkat signifikansi menggunakan a = 5% (signifikansi 5%/0,05) adalah ukuran standar yang sering digunakan dalam penelitian
-          Menentukan t hitung
Berdasarkan tabel t hitung diperoleh sebesar 7,4348
-          Menentukan t tabel
Tabel distribusi dicari pada a = 5% : 2 = 2,5%
Uji 2 sisi dengan drajat kebesaran (df) n-k = 20, karena jumlah k = 2 yaitu parameter a dan b . maka nilai t tabelnya sebesar 1,725.
Nilai t tabel yang besarnya 2,086 sudah tentu lebih kecil dibanding t hitung yang besarnya 7,4348. Dapat dipastikan bahwa BuDep signifikan mempengaruhi Inflasi
-          Kriteria pengujian
Ho diterima jika – t tabel < t hitung < t tabel
Ho ditolak jika      – t hitung < - t tabel
                                          Atau
                              T hitung > t tabel
-          Membandingkan t hitung dengan t tabel
Nilai t hitung > t tabel
                  7,4348 > 1,725
                  Maka Ho ditolak


i.        Koefisiensi determinasi yaitu mengukur seberapa jauh kemampuan model dalam menerangkan variasi variable terikat, angka yang menunjukan proporsi variable dependen yang dijelaskan oleh variasi variable independen.