Senin, 10 Juli 2017

EKONOMETRIK BAB IV DAN V

BAB IV


REGRESI LINEAR BERGANDA


Tugas:


1.   Buatlah rangkuman dari pembahasan di atas!

2.   Cobalah untuk menyimpulkan maksud dari uraian bab ini!
3.   Lakukanlah perintah-perintah di bawah ini:

a.Coba jelaskan apa yang dimaksud dengan regresi linier berganda!

b. Coba tuliskan model regresi linier berganda!

c.Coba uraikan arti dari notasi atas model yang telah anda tuliskan!

d.Jelaskan informasi apa yang dapat diungkap pada konstanta!

e. Jelaskan informasi apa yang dapat diungkap pada koefisien regresi!

f. Coba sebutkan perbedaan-perbedaan antara model regresi linier sederhana dengan model regresi linier berganda!
g. Jelaskan mengapa rumus untuk mencari nilai b pada model regresi linier berganda berbeda dengan model regresi linier sederhana!
h. Coba jelaskan apakah pencarian nilai t juga mengalami perubahan! kenapa?

i. Coba uraikan bagaimana menentukan nilai t yang signifikan!

j. Jelaskan apa kegunaan nilai F!

k. Bagaimana menentukan nilai F yang signifikan?

l. Jelaskan apakah rumus dalam mencari koefisien determinasi pada model regresi linier berganda berbeda dengan regresi linier sederhana! kenapa?
m. Jelaskan bagaimana variabel penjelas dapat dianggap sebagai prediktor terbaik dalammenjelaskan Y!



Jawab :


1.   Pada regresi linear berganda jumlah variabel yang digunakan ditambah menjadi lebih banyak, yaitu satu variabel Y dan variabel X lebih dari satu variabel. Bertambahnya jumlah variabel X lebih dari satu sangat memungkinkan, karena semua faktor atau variabel saling berkaitan satu dengan yang lainnya.

Berikut adalah perubahan model ke bentuk multiple linear :


1.   Jumlah variabel penjelasnya bertambah sehingga spesifikasi model dan data terjadi penambahan.
2.   Rumus penghitungan nilai b mengalami perubahan.

3.   Jumlah degree of freedom dalam menentukan nilai t juga berubah.


Penulisan model regresi linear berganda merupakan pengembangan dari model regresi   linear tunggal yang memiliki perbedaan pada jumlah variabel X saja, dalam regresi tuggal memiliki satu variabel X sedangkan regresi berganda bisa memiliki variabel X lebih dari satu.



Notasi model seperti di atas berbeda dengan notasi model Yale. Notasi model Yale mempunyai sepesifikasi dalam menandai variabel terikat yang selalu dengan angka 1. Untuk variabel bebas notasinya dimulai dari angka 2, 3, 4, dan seterusnya.




Perhitungan Nilai Parameter


Penggunaan metode OLS dalam regresi linear berganda untuk mendapatkan aturan dengan mengetimasi parameter yang tidak diketahui. Prinsipnya adalah meminimalisasi perbedaan kuadrat kesalahan (sum of square) antara nilai observasi Y dengan Ŷ.

Ditunjukkan degan rumus di bawah ini :





Semakin banyaknya variabel X maka kemungkinan penjelasan model juga mengalami pertambahan. Dalam multiple linear bisa terjadi misalnya pada perubahan X1, meskipun X2, konstan, akan mampu merubah nilai harapan dari Y. Begitu pula, perubahan pada X2, meskipun X1 konstan, akan mampu merubah nilai harapan dari Y. Perubahan yang terjadi pada X1 atau X2,  tentu mengakibatkan perubahan nilai
harapan Y atau E (Y/X1,X2) yang berbeda. Oleh karena itu pencarian nilai b

mengalami perubahan.


Penambahan atau pengurangan akan mengakibatkan perubahan rentangan nilai b. Perubahan rentang nilai b1 dan b2 diukur dengan standar errorSemakin besar standar error mencerminkan nilai b sebagai penduga populasi semakin kurang respresentatif, apabila semakin kecil standar error maka keakuratan daya penduga nilai b terhadap populasi semakin tinggi. Perbandingan antara nilai b dan standar error memunculkan nilai t dengan rumus sebagai berikut :
t =   𝑏          
𝑏

Dimana:


b = nilai parameter


Sb = standar error dari b. Jika b sama dengan 0 (b=0) atau Sb  bernilai sangat besar, maka nilai t akan sama dengan atau mendekati 0 (nol).

Untuk melakukan uji t, perlu menghitung besarnya standar error masing- masing parameter yang diformulasikan Gujarati (1995:198-199)




Untuk dapat mengisi rumus    𝑒2  perlu terlebih dahulu mencari nilai e. Nilai
adalah standar error yang terdapat dalam persamaan regresi.


Y = b0 + b1X1 + b2X2 + e


Secara matematis dapat diubah dengan cara mengubah posisi tanda persamaan hingga menjadi :

e = Y – (b0 + b1X1 + b2X2)


Pencarian masing-masing nilai t dapat dirumuskan sebagai berikut :





tb0 =

𝑏0
𝑏 0






tb1 =

𝑏1
𝑏 1






tb2 =

𝑏2
𝑏 2




Dengan diketahuinya nilai t hitung masing-masing parameter, maka dapat digunakan untuk mengetahui signifikan tidaknya variabel penjelas dalam mempengaruhi variabel terikat. Untuk mengetahui signifikan atau tidaknya maka perlu membandingkan dengan nilai t tabel.


Apabila nilai t tabel hitung lebih besar dibandingkan dengan nilai t tabel, maka variabel enelas tersebut sinifikan. Apbila nilai t hitung lebih kecil dari tabel, maka variabel penjelas tersebut tidak signifikan.

Koefesien Determinasi (R2)


Koefisien determinasi digunakan untuk mengukur goodness of fit dari persamaan regresi melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau total variasi Y terhadap
explained sum of square (ESS) atau variasi yang dijelaskan Y. R2  dapat didefinisikan dengan

arti rasio antara variasi yang dijelaskan Y dengan total variasi Y. Dengan rumus sebagai berikut :
R2  =  𝐸�  

Uji F


Pengujian secara serentak dilakukan dengan teknik analisis of variance (ANOVA) melalui pengujian nilai F hitung yang dibandingkan dengan nilai F tabel. Pada prinsipnya, teknik ANOVA digunakan untuk meguji distribusi atau variansi means dalam variabel penjelas apakah secara proporsional telah signifikan menjelaskan variasi dari variabel yang dijelaskan. Secara ringkas dapat dituliskan sebagai berikut :



H diterima atau ditolak merupakan suatu keputusan jawaban terhadap hipotesis yang terkait dengan uji F, yang biasanya dituliskan dala kalimat sebagai berikut :

H0 : b1 = b2 = 0  Variabel penjelas secara serentak tidak signifikan mempengaruhi variabel yang dijelaskan.

H0 : b1 b2 0  Variabel penjelas secara serentak signifikan mempengaruhi variabel

yang dijelaskan.


Uji F adalah membandingkan antara nilai F hitung dengan nilai F tabel. Nilai F hitung dapat dicari dengan rumus sebagai berikut :



F tabel dituliskan dengan F α;k-1; (n-k)). Pengertiannya :
-    Simbol α menjelaskan tingkat signifikansi (level of significance) (apakah pada α =

0.05 atau α = 0,01 ataukah α= 0,10).

-    Simbol (k-1) menunjukkan degrees of freedom for numerator.

-    Simbol (n-k) menunjukkan degrees of freedom for denominator.




2.   Pada regresi linear berganda variabel X yang digunakan berjumlah lebih dari satu dan merupakan pengembangan dari model regresi linear tunggal. Penulisan  model variabel dependen dengan simbol Y dan variabel independen dengan simbol X mulai ada penyederhanaan lagi yang intinya untuk memudahkan interpretasi. Prinisp penggunan metode OLS dalam regresi linear berganda adalah untuk meminimalisasi perbedaan jumlah kuadrat kesalahan. Disamping menguji signifikansi dengan uji t
dari masing-masing variabel , dapat pula menguji determinasi seluruh variabel penjelas yang ada dalam model regresindan disimbolkan dengan koefisien regresi (R2). Selain itu pengujian secara serentak dengan menggunakan teknik ANOVA melalui pengujian nilai F hitung yang dibandingkan dengan nilai F tabel.


3.   a) Regresi linear berganda adalah hubungan linear yang memiliki variabel independen (X) yang berjumlah lebih dari satu yang merupakan pengembangan model dari regresi linear tunggal.




b) Y=α + β1X1 + β2X2 + β3X3 + e



c) Y = Keputusan Pembelian

X1= Bauran Promosi

X2= Atribut Produk

X3 = Kualias Pelayanan

α= konstanta

β1= koefisien regresi variabel X1 β2= koefisien regresi variabel X2 β3= koefisien regresi variabel X3 e = standar error


d) Konstanta merupakan nilai tetap dengan variabel yang berubah dan biasanya berupa bilangan.


e) Koefisien regresi merupakan gambaran tingkat elastisitas variabel independen, disebut juga estimator statistik.


f) Perbedaannya terdapat pada jumlah variabel X saja. Dalam regresi linear sederhana hanya satu X, sedangkan dalam regresi linear berganda variabel X lebih dari satu.


g) Karena, jumlah variabel penjelasnya bertambah. Semakin banyaknya variabel X maka kemungkinan-kemungkinan menjelaskan model juga mengalami pertambahan. Misalnya, jika terjadi perubahan pada X1, meskipun X2 konstan, akan mampu merubah nilai harapan dari Y.


h) Pencarian nilai t mempunyai kesamaan dengan model regresi linear sederhana, hanya saja pencarian Sb nya yang berbeda.


i) Untuk mengetahui signifikan atau tidak nilai t hitung tersebut, maka perlu membandingkan dengan nilai t tabel. Apabila nilai t hitung lebih besar dibandingkan dengan nilai t tabel, maka variabel penjelas tersebut signifikan. Sebaliknya, jika nilai t hitung lebih kecil dari t tabel maka variabel penjelas tersebut tidak signifikan.


j) Nilai F digunakan untuk mengetahui signifikan atau tidaknya variabel yaitu dengan memandingkan antara nilai F hitung dengan nilai F tabel.


k)Jika nilai F hitung lebih besar dibanding nilai F tabel, maka secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y. Jika nilai F hitung lebih kecil dibandingkan dengan nilai F tabel, maka tidak secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y.


l) Sama. Karena, koefisien determinasi pada dasarnya digunakan untuk mengukur goodness of fit dari persamaan regresi melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y).


m) Variabel penjelas dapat dianggap sebagai prediktor terbaik dalam menjelaskan Y karena tingkat signifikansi variabel tidak hanya dilakukan secara individual saja tetapi juga dilakukan pengujian seacara serentak guna menjelaskan apakah telah signifikan dalam menjelaskan variasi dari variabel yang dijelaskan.





Supawi Pawenang  , 2017, Ekonometrika, Uniba.  www.uniba.ac.id

BAB V
UJI ASUMSI KLASIK Tugas:

1.   Buatlah rangkuman dari pembahasan di atas!

2.   Cobalah untuk menyimpulkan maksud dari uraian bab ini!

3.   Jawablah pertanyaan-pertanyaan di bawah ini:

a Coba jelaskan apa yang dimaksud dengan asumsi klasik!

b.   Sebutkan apa saja asumsi-asumsi yang ditetapkan!

c Coba jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!

d.   Jelaskan apa yang dimaksud dengan autokorelasi!

e Jelaskan kenapa autokorelasi timbul!

f Bagaimana cara mendeteksi masalah autokorelasi?

g Apa konsekuensi dari adanya masalah autokorelasi dalam model?

h.   Jelaskan apa yang dimaksud dengan heteroskedastisitas!

i.   Jelaskan kenapa heteroskedastisitas timbul!

j.   Bagaimana cara mendeteksi masalah heteroskedastisitas?

k.   Apa konsekuensi dari adanya masalah heteroskedastisitas dalam model?

l.   Jelaskan apa yang dimaksud dengan multikolinearitas!

m. Jelaskan kenapa multikolinearitas timbul!

n.   Bagaimana cara mendeteksi masalah multikolinearitas?

o.    Apa konsekuensi dari adanya masalah multikolinearitas dalam model?

p.   Jelaskan apa yang dimaksud dengan normalitas!

q.   Jelaskan kenapa normalitas timbul!

r Bagaimana cara mendeteksi masalah normalitas?

s.   Apa konsekuensi dari adanya masalah normalitas dalam model?

t.   Bagaimana cara menangani jika data ternyata tidak normal?





Jawab:

1.   Dalam memenuhi asumsi pada regresi linear sederhana maupun regresi linear berganda perlu memenuhi asumsi yang mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Artinya tidak semua data dapat diperlakukan dengan regeresi, jika data yang diregresi tidak memenuhi asumsi yang

telah disebutkan maka regresi yang diterapkan akan mengalami estimasi bias.Apabila regresi memenuhi asumsi-asumsi regresi maka nilai estimasi akan bersifat BLUE (Best, Linear, Unbiased, Estimator ).

Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan error yang terkecil. Error adalah perbedaan antara nilai observasi dan nilai yang diramalakan oleh garis regresi. Jika garis regresi telah Best dan disertai kondisi tidak bias (unbiased), maka estimator regresi akan efisien.

Linear dalam model artinya digunakan dalam analisi regresi telah sesuai dengan kaidah model OLS yang variabel-variabel penduganya hanya berpangkat satu. Linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel.

Unbiased suatu estimator dikatakan unbiased jika nilai harapan dari nilia estimator b sama dengan nilai yang benar dari b. Artinya nilai rata-rata b = b. Bila tidak sama, maka selisihnya itu disebut dengan bias.

Estimator yang efisien dapat ditemukan apabila ketiga kondisi diatas telah tercapai, karena sifat estimator merupakan konklusi. Meskipun nilai t sudah signifikan ataupun tidak signifikan, keduanya tidak dapat memberi informasi yang
sesungguhnya.


Uji Autokorelasi


Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Masalah autokorelasi lebih sering muncul pada data time series, karena sifat data ini lekat dengan kontiyuitas dan adanya sifat ketergantungan antar data. Sementara pada data cross section hal itu kemungkinan kecil terjadi. Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol dan variannya konstan.

Sebab-sebab autokorelasi :


1.   Kesalahan dalam pembentukan model.

2.   Tidak memasukkan variabel yang penting. Variabel yang dimaksud adalah variabel yang signifikan mempengaruhi variabel Y.
3.   Manipulasi data.

4.   Menggunakan data yang tidak empiris.





Akibat autokorelasi


Nilai parameter estimator (b1, b2,.....¸bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Nilai variance tidak minimum dan standard error akan bias. Akibatnya adalah nilai t hitung akan menjadi bias, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb).

Pengujian Autokorelasi :


-    Uji Durbin Watson (DW Test)

Formula yang digunakan untuk mendeteksi dikenal dengan sebutan Durbin

Watson d statistic, ditulis sebagai berikut :


Dalam DW test ini perlu memtuhi asumsi penting, yaitu :

-    Terdapat intercept dalam model regresi.

-    Variabel penjelasnya tidak random.

-    Tidak ada unsur lag dari variabel dependen di dalam model.

-    Tidak ada data yang hilang.

-     

Terdapat beberapa standar keputusan yang perlu dipedomani ketika menggunakan

DW test, yang semuanya mennetukan lokasi dimana DW berada : DW < dL = terdapat autokorelasi postif

dL< DW< dU = tidak dapat disimpulkan (inconlusive)


dU > DW > 4-dU  = tidak terdapat autokorelasi


4-dU < DW < 4-dL = tidak dapat disimpulkan (inconclusive) DW > 4-dL = terdapat autokorelasi negatif
Dimana :


DW = Nilai Durbin-Watson d statistik


dU  = Nilai batas atas (didapat dari tabel)


dL = Nilai batas bawah (didapat dari tabel)










-    Menggunakan metode LaGrange Multiplier (LM) LM


Y = β0 + β1X1 + β2X2 + β3Y t-1 + β4 Yt-2 + ε



Variabel Y t-1  merupakan variabel lag 1 dari Y.

Variabel Yt-2 merupakan variabel lag 2 dari Y.


Lag 1 dan Lag 2 variabel Y dimasukkan dalam model ini bertujuan untuk mengetahui pada lag berapa problem autokorelasi muncul. Lag 1 menunjukkan
adanya kesenjangan waktu 1 periode, sedang lag 2 menunjukkan kesenjangan waktu 2 periode. Periodenya tergantung  pada jenis data apakah data harian, bulanan, tahunan.

Untuk mengetahui pada lag berapa autokorelai muncul, dapat dilhat dari signifikan tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t masing-masing variabel lag yang dibandingkan dengan t tabel.

Uji Normalitas


Tujuan dilakukan uji normalitas adalah untuk menguji aspek variabel pengganggu (e) memiliki distribusi normal atau tidak. Beberapa cara dapat dilakukan untuk melakukan uji normalitas antara lain :

1.  Menggunakan metode numerik yang membandingkan nilai statistik, yaitu anatar nilai median dengan nilai mean. Data dikatakan normal  jika perbandingan anatara mean dan median menghasilkan nilai yang kurang lebih sama.

2.  Menggunakan formula Jarque Bera (JB test) dengan rumus sebagai berikut : JB = n [𝑆2 +    𝐾 3   2]
6              24
Dimana:

S = Skewness (kemencengan) distribusi data

K = Kurtosis (keruncingan)





Skewness dapat dicari dengan formula sebagai berikut:



Kurtosis dapat dicari dengan formula sebagai berikut:




3.  Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase

data observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran data, langkah awal yag dilakukan adalah menghitung standar deviasi.

Standar deviasi digunakan untuk menentukan rentang deviasi dan posisi simetris data.
Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data berdistribusi normal atau tidak normal. Apabila data telah berdistribusi normal maka tidak ada masalah, karena uji t dan uji F dapat dilakukan (Kuncoro, 2001  110). Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti : memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data. Jika data cenderung menceng ke kiri disebut positif skewness, dan jika cenderung ke kanan disebut negatif skewness.


Uji Heteroskedastisitas

Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001:112). Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series (Kuncoro, 2001:112; Setiaji, 2004:17 ).


Konsekuensi Heteroskedasitas


Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen (Arsyad, 1994:198). Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb.

Pendeteksian Heteroskedasitas


Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya,
yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot. Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara melakukan regresi atas residual, dengan model yang dapat dituliskan e2 = a + 2 + u.


Uji Multikolinieritas

Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang perfect atau eskak diantara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna.


Konsekuensi Multikolinieritas

Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).


Pendeteksian Multikolinieritas

Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara untuk data interval atau nominal dapat dilakukan dengan Pearson Correlation. Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk dilakukan. Pengujian multikolinearitas menggunakan angka korelasi dimaksudkan untuk menentukan ada tidaknya multikolinearitas. Apabila angka korelasi lebih kecil dari
0,8 maka dapat dikatakan telah terbebas dari masalah multikolinearitas.



1.   Uji asumsi klasik digunakan untuk memenuhi asumsi formula atau rumus regresi yang diturunkan dari suatu asumsi tertentu. Regresi yang memenuhi asumsi- asumsi regresi akan bersifat BLUE yaitu singkatan dari Blue, Linear, Unbiased,

dan Estimator. Untuk menghasilkan hasil regresi yang BLUE (Best, Linear, Unbiased, Estimator) maka perlu adanya pengujian yang diperlukan, yaitu dengan uji autokorelasi, uji normalitas, uji heteroskedasitas dan uji multikolinearitas.


2.   a) Asumsi klasik adalah suatu syarat yang harus ada atau dipenuhi dalam regresi linear sederhana atau regresi linear berganda dengan menghasilkan nilai parameter yang memenuhi asumsi tidak ada autokorelasi, tidak ada multikolinearitas, dan tidak ada heteroskedasitas sehingga menghasilkan hasil regresi yang BLUE (best, linear, unbiased, estimator).


b) Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter.
Asumsi 2: Nilai X adalah tetap dalam sampling yang

diulang-ulang (X fixed in repeated sampling). Tepatnya bahwa nilai X adalah

nonstochastic(tidak random).

Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas.
Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).
Asumsi 6: Variabel X dan disturbance e tidak berkorelasi.Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing- masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau non stochastic.
Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.

Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.
Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi.


c) Karena asumsi-asumsi tersebut telah memenuhi asumsi regresi dan nilai yang diperoleh telah bersifat BLUE (Best, Linear, Unbiased, Estimator).


d) Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu
(time series) atau data kerat silang (cross section). Masalah autokorelasi lebih sering muncul pada data time series, karena sifatnya lekat dengan kontinyuitas dan adanya sifat ketergantungan antar data, sedangkan pada cross section hal itu kecil kemungkinan terjadi.


e) 1. Kesalahan dalam pembentukan model, artinya model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2.Tidak memasukkan variabel yang penting. Variabel penting yang dimaksud adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
3.Manipulasi data.

4. Menggunakan data yang tidak empiris.



f) Cara menguji autokorelasi yaitu dengan cara :

1) Uji Durbin-Watson (DW Test). Dengan langkah-langkahnya menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya menyatakan bahwa dua ujungnya tidak ada serial autokorelasi baik positif maupun negatif.
2) Menggunakan metode LaGrange Multiplier (LM). LM sendiri merupakan teknik regresi yang memasukkan variabel lag, sehingga terdapat variabel
tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data

Lag dari variabel dependen.

g)  Nilai parameter estimator (b1, b2,.....¸bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Nilai variance tidak minimum dan standard error akan bias. Akibatnya adalah nilai t hitung akan menjadi bias, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb).


h) Heteroskedastisitas adalah residual yang harus homoskedastis, artinya variance residual harus memiliki variabel yang konstan atau dengan kata lain rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas.


i) Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001:112). Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series (Kuncoro, 2001:112; Setiaji,
2004:17 ).



j) Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot. Pengujian heteroskedastisitas menggunakan uji Arch dilakukan dengan cara melakukan regresi atas residual, dengan model yang dapat dituliskan e2 = a + 2
+ u.



k) Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb.

l)  Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang perfect atau eskak diantara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna.

m) Multikolinieritas timbul karena nilai koefisien regresi (b) masing-masing variabel bebas dan standar error nya (Sb) cenderung bias dalam arti tidak dapat ditentukan kepastian nilainya.


n) Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearmans Rho Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara untuk data interval atau nominal dapat dilakukan dengan Pearson Correlation.


o) Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).


p) Normalitas adalah untuk menguji aspek variabel pengganggu (e) memiliki distribusi normal atau tidak yang dapat dilakukan sebelum atau setelah tahapan analisis regresi.


q) Normalitas timbul karena mempunyai dua kemungkinan, yaitu apakah variabel pengganggu pada data berdistribusi normal atau tidak normal.


r) Beberapa cara dapat dilakukan untuk melakukan uji normalitas antara lain :

1. Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara nilai median dengan nilai mean. Data dikatakan normal  jika perbandingan anatara mean dan median menghasilkan nilai yang kurang lebih sama.

2. Menggunakan formula Jarque Bera (JB test) dengan rumus sebagai berikut : JB = n [ 𝑆 2 +    𝐾 3   2]
6              24
Dimana:

S = Skewness (kemencengan) distribusi data

K = Kurtosis (keruncingan)

Skewness dapat dicari dengan formula sebagai berikut:




Kurtosis dapat dicari dengan formula sebagai berikut:




3. Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa

prosentase data observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran data, langkah awal yag dilakukan adalah menghitung standar deviasi.



s) Konsekuensi normalitas dalam model berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.


t) Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti : memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data.




Supawi Pawenang  , 2017, Ekonometrika, Uniba.  www.uniba.ac.id