BAB
IV
REGRESI LINEAR BERGANDA
Tugas:
1.
Buatlah rangkuman dari
pembahasan di atas!
2. Cobalah
untuk menyimpulkan maksud
dari uraian bab
ini!
3.
Lakukanlah perintah-perintah di bawah ini:
a.Coba jelaskan apa yang
dimaksud
dengan regresi linier berganda!
b. Coba tuliskan model regresi
linier berganda!
c.Coba uraikan arti
dari notasi atas model yang telah
anda tuliskan!
d.Jelaskan informasi
apa
yang dapat
diungkap pada konstanta!
e. Jelaskan informasi
apa
yang dapat
diungkap pada koefisien regresi!
f. Coba sebutkan
perbedaan-perbedaan antara model regresi linier
sederhana dengan
model regresi linier
berganda!
g.
Jelaskan mengapa rumus untuk mencari nilai b pada model regresi
linier berganda
berbeda dengan model
regresi linier sederhana!
h. Coba jelaskan apakah pencarian nilai t juga mengalami perubahan! kenapa?
i. Coba uraikan bagaimana menentukan
nilai t yang signifikan!
j. Jelaskan apa kegunaan nilai
F!
k. Bagaimana menentukan nilai F yang signifikan?
l. Jelaskan apakah
rumus dalam mencari koefisien determinasi
pada model regresi linier berganda berbeda dengan
regresi linier sederhana!
kenapa?
m. Jelaskan bagaimana variabel
penjelas
dapat dianggap
sebagai prediktor terbaik
dalammenjelaskan Y!
Jawab :
1. Pada regresi
linear
berganda jumlah variabel yang digunakan ditambah menjadi
lebih banyak, yaitu satu variabel Y dan
variabel
X lebih dari satu variabel. Bertambahnya
jumlah variabel X lebih dari satu sangat
memungkinkan, karena semua
faktor atau variabel
saling berkaitan satu dengan yang lainnya.
Berikut
adalah perubahan model ke
bentuk multiple linear
:
1. Jumlah variabel
penjelasnya bertambah
sehingga spesifikasi
model dan data terjadi penambahan.
2. Rumus penghitungan nilai b mengalami
perubahan.
3. Jumlah degree of freedom dalam
menentukan nilai t juga berubah.
Penulisan
model regresi linear berganda merupakan pengembangan
dari
model
regresi linear
tunggal yang memiliki perbedaan pada jumlah variabel X saja,
dalam regresi tuggal
memiliki
satu variabel X sedangkan regresi berganda bisa memiliki
variabel X lebih dari
satu.
Notasi model seperti
di atas berbeda dengan
notasi
model
Yale. Notasi model Yale mempunyai sepesifikasi dalam menandai variabel terikat yang selalu dengan angka 1. Untuk variabel bebas
notasinya dimulai dari
angka 2,
3, 4, dan seterusnya.
Perhitungan Nilai Parameter
Penggunaan metode
OLS dalam regresi linear berganda untuk
mendapatkan aturan dengan
mengetimasi
parameter yang tidak diketahui.
Prinsipnya adalah meminimalisasi perbedaan kuadrat kesalahan
(sum of square) antara nilai observasi Y dengan Ŷ.
Ditunjukkan degan
rumus di bawah ini :
Semakin
banyaknya variabel
X maka kemungkinan
penjelasan model
juga mengalami pertambahan. Dalam multiple linear bisa terjadi
misalnya pada perubahan X1,
meskipun X2, konstan,
akan
mampu merubah nilai harapan dari Y. Begitu pula, perubahan
pada X2,
meskipun X1 konstan,
akan
mampu merubah nilai harapan dari
Y. Perubahan yang terjadi
pada X1 atau
X2, tentu
mengakibatkan perubahan nilai
harapan Y atau
E (Y/X1,X2) yang berbeda. Oleh karena itu
pencarian nilai b
mengalami perubahan.
Penambahan
atau pengurangan akan
mengakibatkan perubahan rentangan nilai b. Perubahan rentang nilai
b1 dan b2 diukur dengan standar
error. Semakin besar standar error mencerminkan nilai b sebagai
penduga populasi semakin kurang respresentatif, apabila semakin kecil standar error maka keakuratan daya penduga
nilai
b terhadap
populasi semakin tinggi. Perbandingan antara nilai b dan standar error
memunculkan nilai t dengan rumus sebagai
berikut :
t = 𝑏
�𝑏
Dimana:
b = nilai parameter
Sb = standar error dari b. Jika
b sama dengan 0 (b=0) atau Sb bernilai
sangat
besar,
maka nilai t akan
sama
dengan atau
mendekati 0
(nol).
Untuk
melakukan uji t, perlu menghitung besarnya standar error masing- masing parameter yang diformulasikan Gujarati (1995:198-199)
Untuk dapat mengisi rumus
𝑒2 perlu terlebih
dahulu mencari nilai e. Nilai
adalah
standar error yang terdapat
dalam
persamaan
regresi.
Y = b0 + b1X1 + b2X2 + e
Secara
matematis dapat
diubah dengan cara mengubah
posisi tanda persamaan
hingga
menjadi :
e = Y – (b0 + b1X1 + b2X2)
Pencarian masing-masing nilai
t dapat dirumuskan sebagai berikut
:
tb0 =
𝑏0
�𝑏 0
tb1 =
𝑏1
�𝑏 1
tb2 =
𝑏2
�𝑏 2
Dengan
diketahuinya nilai t hitung masing-masing parameter, maka dapat digunakan untuk mengetahui signifikan tidaknya variabel
penjelas dalam mempengaruhi variabel terikat.
Untuk mengetahui signifikan atau
tidaknya maka perlu membandingkan dengan nilai t tabel.
Apabila nilai t tabel hitung lebih besar dibandingkan dengan nilai t tabel, maka variabel
enelas
tersebut sinifikan. Apbila nilai t hitung lebih
kecil dari tabel, maka variabel penjelas tersebut tidak
signifikan.
Koefesien Determinasi
(R2)
Koefisien
determinasi digunakan
untuk mengukur goodness of fit dari persamaan
regresi
melalui
hasil pengukuran
dalam bentuk prosentase yang menjelaskan determinasi variabel
penjelas
(X)
terhadap
variabel yang dijelaskan (Y).
Koefisien determinasi dapat
dicari melalui hasil bagi dari total sum of square (TSS)
atau total variasi Y terhadap
explained
sum of square (ESS)
atau variasi yang dijelaskan Y. R2 dapat didefinisikan
dengan
arti rasio
antara variasi yang dijelaskan Y
dengan total
variasi Y. Dengan rumus sebagai berikut
:
R2 = 𝐸� �
���
Uji F
Pengujian secara serentak
dilakukan dengan teknik analisis of variance
(ANOVA) melalui pengujian
nilai F hitung yang dibandingkan dengan nilai F tabel.
Pada
prinsipnya,
teknik ANOVA digunakan
untuk meguji distribusi
atau variansi means dalam
variabel penjelas apakah
secara proporsional
telah
signifikan menjelaskan
variasi
dari variabel yang
dijelaskan. Secara ringkas dapat
dituliskan
sebagai
berikut :
H0 diterima atau ditolak merupakan suatu keputusan jawaban terhadap hipotesis yang
terkait dengan
uji F, yang biasanya dituliskan dala kalimat sebagai berikut :
H0 : b1 = b2 = 0 Variabel penjelas secara serentak tidak
signifikan mempengaruhi variabel yang dijelaskan.
H0 : b1 ≠ b2 ≠ 0 Variabel penjelas
secara serentak signifikan mempengaruhi variabel
yang dijelaskan.
Uji
F adalah membandingkan antara nilai
F hitung dengan
nilai
F tabel. Nilai F hitung dapat dicari dengan
rumus sebagai berikut :
F tabel
dituliskan
dengan F α;k-1;
(n-k)). Pengertiannya :
- Simbol α menjelaskan tingkat signifikansi
(level of significance) (apakah pada α =
0.05 atau α = 0,01 ataukah
α=
0,10).
- Simbol (k-1) menunjukkan degrees of freedom for
numerator.
- Simbol (n-k) menunjukkan degrees of freedom for
denominator.
2. Pada regresi
linear
berganda variabel
X yang digunakan
berjumlah lebih dari satu
dan merupakan pengembangan dari
model regresi
linear tunggal. Penulisan
model variabel
dependen dengan
simbol Y dan variabel
independen
dengan simbol
X mulai ada penyederhanaan lagi
yang intinya untuk
memudahkan interpretasi. Prinisp
penggunan metode
OLS dalam
regresi linear berganda adalah untuk meminimalisasi perbedaan
jumlah kuadrat kesalahan.
Disamping menguji signifikansi dengan
uji t
dari masing-masing variabel , dapat
pula
menguji determinasi seluruh
variabel penjelas yang ada dalam model regresindan disimbolkan dengan
koefisien regresi (R2).
Selain itu pengujian secara serentak dengan menggunakan teknik ANOVA melalui pengujian
nilai F hitung yang dibandingkan
dengan nilai F tabel.
3. a) Regresi linear
berganda adalah
hubungan linear yang memiliki
variabel independen (X) yang berjumlah
lebih dari satu yang merupakan pengembangan
model
dari regresi
linear
tunggal.
b) Y=α + β1X1
+ β2X2 + β3X3 + e
c) Y = Keputusan
Pembelian
X1= Bauran
Promosi
X2= Atribut Produk
X3 = Kualias
Pelayanan
α= konstanta
β1= koefisien
regresi variabel X1 β2=
koefisien regresi variabel X2 β3=
koefisien regresi variabel X3 e
= standar error
d) Konstanta merupakan nilai tetap dengan variabel yang berubah dan
biasanya
berupa bilangan.
e) Koefisien regresi
merupakan gambaran
tingkat elastisitas variabel independen,
disebut juga estimator statistik.
f) Perbedaannya terdapat pada jumlah
variabel X saja. Dalam regresi
linear sederhana hanya satu X,
sedangkan dalam regresi
linear
berganda variabel X lebih dari satu.
g) Karena, jumlah
variabel penjelasnya bertambah. Semakin banyaknya variabel
X maka kemungkinan-kemungkinan menjelaskan model juga mengalami pertambahan. Misalnya, jika terjadi perubahan
pada X1,
meskipun X2 konstan, akan mampu merubah nilai
harapan dari Y.
h) Pencarian
nilai
t mempunyai kesamaan dengan model regresi linear sederhana,
hanya saja pencarian
Sb nya yang berbeda.
i) Untuk mengetahui signifikan atau tidak nilai t hitung tersebut, maka perlu membandingkan dengan nilai
t tabel. Apabila nilai
t hitung lebih besar dibandingkan dengan nilai t tabel, maka variabel penjelas
tersebut signifikan.
Sebaliknya, jika nilai
t hitung lebih kecil dari t tabel
maka variabel penjelas
tersebut tidak signifikan.
j) Nilai F digunakan untuk
mengetahui signifikan atau tidaknya variabel yaitu
dengan memandingkan antara nilai
F hitung dengan nilai F tabel.
k)Jika
nilai F hitung lebih besar
dibanding nilai
F tabel,
maka secara serentak seluruh
variabel penjelas yang
ada dalam
model signifikan mempengaruhi variabel terikat
Y. Jika nilai F hitung lebih kecil dibandingkan
dengan nilai F tabel, maka tidak secara serentak seluruh variabel penjelas yang ada dalam model
signifikan mempengaruhi
variabel terikat
Y.
l) Sama.
Karena,
koefisien determinasi pada
dasarnya digunakan untuk mengukur goodness of
fit
dari persamaan regresi
melalui
hasil
pengukuran dalam
bentuk
prosentase yang menjelaskan determinasi variabel penjelas
(X)
terhadap
variabel yang dijelaskan
(Y).
m) Variabel penjelas
dapat dianggap
sebagai prediktor terbaik dalam
menjelaskan Y
karena tingkat signifikansi variabel tidak
hanya dilakukan secara individual saja tetapi juga dilakukan pengujian seacara serentak guna menjelaskan
apakah telah
signifikan dalam
menjelaskan variasi
dari variabel yang dijelaskan.
BAB
V
UJI ASUMSI
KLASIK Tugas:
1. Buatlah rangkuman dari
pembahasan di atas!
2. Cobalah
untuk menyimpulkan maksud
dari uraian bab ini!
3. Jawablah
pertanyaan-pertanyaan
di bawah ini:
a. Coba
jelaskan apa yang dimaksud
dengan asumsi
klasik!
b. Sebutkan apa saja asumsi-asumsi yang ditetapkan!
c. Coba
jelaskan mengapa tidak semua
asumsi perlu lakukan pengujian!
d. Jelaskan
apa
yang dimaksud
dengan autokorelasi!
e. Jelaskan
kenapa autokorelasi timbul!
f. Bagaimana cara mendeteksi masalah autokorelasi?
g. Apa
konsekuensi dari adanya masalah autokorelasi dalam model?
h. Jelaskan
apa
yang dimaksud
dengan heteroskedastisitas!
i. Jelaskan
kenapa heteroskedastisitas
timbul!
j. Bagaimana cara mendeteksi masalah heteroskedastisitas?
k. Apa konsekuensi
dari adanya masalah heteroskedastisitas
dalam model?
l. Jelaskan
apa
yang dimaksud
dengan multikolinearitas!
m. Jelaskan
kenapa multikolinearitas timbul!
n. Bagaimana cara mendeteksi masalah multikolinearitas?
o. Apa konsekuensi
dari adanya masalah multikolinearitas dalam
model?
p. Jelaskan
apa
yang dimaksud
dengan normalitas!
q. Jelaskan
kenapa normalitas timbul!
r. Bagaimana cara mendeteksi masalah normalitas?
s. Apa
konsekuensi dari
adanya masalah normalitas dalam model?
t. Bagaimana cara menangani
jika data ternyata tidak normal?
Jawab:
1. Dalam
memenuhi asumsi pada regresi linear sederhana maupun regresi
linear berganda perlu
memenuhi asumsi yang mengandung arti bahwa formula atau rumus regresi diturunkan
dari
suatu
asumsi tertentu. Artinya tidak
semua
data dapat
diperlakukan dengan
regeresi,
jika data yang diregresi
tidak memenuhi asumsi yang
telah disebutkan maka regresi yang diterapkan akan
mengalami estimasi bias.Apabila
regresi
memenuhi asumsi-asumsi
regresi maka nilai estimasi akan
bersifat BLUE
(Best, Linear, Unbiased, Estimator ).
Hasil regresi
dikatakan Best apabila garis
regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan error yang
terkecil. Error adalah
perbedaan antara nilai
observasi
dan nilai yang diramalakan oleh garis
regresi. Jika garis regresi telah Best dan disertai kondisi tidak bias (unbiased), maka estimator regresi
akan efisien.
Linear dalam
model
artinya digunakan
dalam analisi regresi
telah
sesuai dengan kaidah
model
OLS
yang variabel-variabel penduganya hanya berpangkat
satu. Linear dalam parameter menjelaskan bahwa parameter yang dihasilkan
merupakan
fungsi linear dari sampel.
Unbiased
suatu estimator dikatakan unbiased
jika
nilai harapan dari nilia
estimator
b sama dengan nilai yang benar dari b. Artinya nilai rata-rata b =
b. Bila tidak sama,
maka selisihnya itu disebut dengan bias.
Estimator yang efisien
dapat
ditemukan apabila ketiga kondisi diatas telah
tercapai, karena sifat
estimator merupakan konklusi. Meskipun nilai t sudah signifikan ataupun
tidak signifikan, keduanya tidak dapat
memberi informasi yang
sesungguhnya.
Uji Autokorelasi
Autokorelasi adalah keadaan
dimana variabel gangguan
pada periode
tertentu berkorelasi dengan
variabel gangguan
pada periode lain.
Masalah autokorelasi
lebih sering muncul pada
data time series, karena sifat data ini lekat
dengan kontiyuitas
dan adanya sifat
ketergantungan antar data. Sementara pada data cross
section hal itu
kemungkinan kecil terjadi.
Asumsi terbebasnya autokorelasi
ditunjukkan oleh nilai e yang mempunyai
rata-rata nol dan
variannya konstan.
Sebab-sebab autokorelasi :
1. Kesalahan
dalam
pembentukan model.
2. Tidak memasukkan
variabel yang penting.
Variabel yang dimaksud
adalah
variabel yang signifikan mempengaruhi variabel Y.
3. Manipulasi data.
4. Menggunakan
data yang
tidak empiris.
Akibat autokorelasi
Nilai
parameter estimator (b1,
b2,.....¸bn)
model regresi tetap linear
dan
tidak
bias dalam memprediksi
B (parameter
sebenarnya). Nilai
variance tidak minimum dan standard error akan
bias. Akibatnya adalah
nilai
t hitung akan menjadi bias, karena nilai t diperoleh dari
hasil
bagi Sb terhadap b (t
= b/sb).
Pengujian Autokorelasi :
- Uji Durbin
Watson
(DW Test)
Formula yang digunakan untuk mendeteksi
dikenal dengan
sebutan Durbin
Watson
d statistic, ditulis sebagai
berikut :
Dalam DW test ini
perlu memtuhi
asumsi penting, yaitu :
- Terdapat intercept dalam model
regresi.
- Variabel
penjelasnya tidak
random.
- Tidak
ada unsur lag dari variabel
dependen di dalam model.
- Tidak
ada data yang hilang.
-
Terdapat
beberapa standar keputusan yang perlu
dipedomani ketika menggunakan
DW test, yang semuanya mennetukan lokasi dimana DW berada :
DW < dL = terdapat autokorelasi
postif
dL< DW< dU = tidak dapat
disimpulkan
(inconlusive)
dU > DW > 4-dU = tidak terdapat
autokorelasi
4-dU < DW < 4-dL = tidak
dapat
disimpulkan
(inconclusive) DW > 4-dL = terdapat
autokorelasi negatif
Dimana :
DW = Nilai Durbin-Watson d statistik
dU = Nilai
batas atas (didapat dari
tabel)
dL = Nilai batas
bawah
(didapat dari tabel)
- Menggunakan metode LaGrange Multiplier (LM)
LM
Y = β0 + β1X1 + β2X2 + β3Y t-1 + β4 Yt-2 + ε
Variabel Y t-1 merupakan variabel
lag
1 dari Y.
Variabel Yt-2 merupakan variabel
lag
2 dari Y.
Lag 1 dan Lag 2 variabel
Y dimasukkan dalam model ini
bertujuan untuk mengetahui pada lag berapa problem autokorelasi muncul. Lag 1
menunjukkan
adanya kesenjangan waktu
1 periode, sedang lag 2 menunjukkan kesenjangan waktu
2 periode. Periodenya tergantung
pada jenis data apakah data
harian, bulanan, tahunan.
Untuk
mengetahui pada lag berapa autokorelai
muncul,
dapat dilhat dari signifikan
tidaknya variabel lag tersebut. Ukuran yang digunakan adalah
nilai t masing-masing variabel lag yang dibandingkan dengan
t tabel.
Uji Normalitas
Tujuan dilakukan
uji normalitas adalah
untuk menguji aspek
variabel pengganggu (e) memiliki
distribusi normal atau
tidak. Beberapa cara dapat dilakukan
untuk melakukan uji normalitas antara lain
:
1.
Menggunakan metode
numerik yang membandingkan nilai statistik, yaitu anatar nilai
median dengan
nilai mean.
Data dikatakan normal
jika perbandingan anatara mean dan
median menghasilkan nilai yang kurang lebih sama.
2. Menggunakan formula Jarque Bera (JB test) dengan rumus sebagai berikut : JB = n
[𝑆2 + 𝐾 −3 2]
6 24
Dimana:
S = Skewness (kemencengan)
distribusi data
K = Kurtosis (keruncingan)
Skewness
dapat dicari dengan formula sebagai
berikut:
Kurtosis dapat dicari dengan formula sebagai berikut:
3. Mengamati sebaran data, dengan melakukan
hitungan-hitungan
berapa prosentase
data observasi
dan berada di
area mana.
Untuk menentukan posisi normal dari
sebaran
data, langkah awal yag dilakukan adalah menghitung standar
deviasi.
Standar
deviasi digunakan
untuk menentukan rentang deviasi dan posisi simetris data.
Dalam pengujian
normalitas mempunyai dua kemungkinan, yaitu
data
berdistribusi normal atau tidak
normal. Apabila data telah berdistribusi normal maka tidak
ada masalah, karena uji t
dan uji F dapat
dilakukan (Kuncoro, 2001
110). Apabila data
tidak
normal, maka diperlukan upaya untuk mengatasi seperti
: memotong data yang
out liers, memperbesar
sampel, atau melakukan transformasi
data. Jika data cenderung menceng ke kiri
disebut positif skewness,
dan jika cenderung ke kanan
disebut negatif skewness.
Uji Heteroskedastisitas
Heteroskedastisitas muncul
apabila kesalahan
atau residual dari model yang
diamati tidak memiliki varians yang konstan
dari satu
observasi ke observasi lainnya (Kuncoro,
2001:112). Masalah heteroskedastisitas
lebih sering muncul dalam data
cross section dari pada data time series
(Kuncoro, 2001:112; Setiaji, 2004:17
).
Konsekuensi Heteroskedasitas
Analisis regresi menganggap kesalahan
(error) bersifat homoskedastis, yaitu
asumsi bahwa residu atau
deviasi dari garis yang
paling tepat muncul serta random
sesuai dengan
besarnya variabel-variabel independen
(Arsyad,
1994:198). Munculnya
masalah heteroskedastisitas yang mengakibatkan nilai
Sb menjadi bias, akan
berdampak pada nilai
t dan nilai F yang menjadi tidak
dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b
dengan Sb.
Pendeteksian
Heteroskedasitas
Pengujian heteroskedastisitas
menggunakan uji grafik,
dapat
dilakukan dengan
membandingkan sebaran antara nilai prediksi variabel terikat
dengan residualnya,
yang output
pendeteksiannya akan
tertera berupa sebaran data pada scatter plot. Pengujian
heteroskedastisitas menggunakan uji Arch,
dilakukan dengan
cara melakukan regresi atas residual, dengan model yang dapat
dituliskan e2 = a + bŶ2 + u.
Uji Multikolinieritas
Multikolinieritas adalah
suatu keadaan dimana terjadi
korelasi linear yang
“perfect”
atau eskak diantara variabel
penjelas yang dimasukkan
ke
dalam model. Tingkat kekuatan hubungan antar
variabel penjelas dapat ditrikotomikan
lemah, tidak berkolinear,
dan
sempurna.
Konsekuensi Multikolinieritas
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari
masalah multikolinearitas akan menyebabkan nilai koefisien
regresi (b) masing-masing variabel
bebas dan nilai standar error-nya (Sb) cenderung bias,
dalam
arti tidak dapat
ditentukan kepastian nilainya,
sehingga akan berpengaruh
pula terhadap nilai t (Setiaji,
2004: 26).
Pendeteksian
Multikolinieritas
Cara mendeteksi ada
tidaknya multikolinieritas
dengan menghitung nilai korelasi antar variabel
dengan
menggunakan Spearman’s Rho Correlation dapat
dilakukan apabila data
dengan skala ordinal
(Kuncoro,
2001: 114). Sementara untuk data
interval atau
nominal dapat dilakukan dengan Pearson Correlation. Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk
dilakukan. Pengujian
multikolinearitas menggunakan angka
korelasi
dimaksudkan untuk menentukan ada tidaknya multikolinearitas.
Apabila angka korelasi lebih kecil dari
0,8 maka dapat dikatakan telah
terbebas dari
masalah multikolinearitas.
1. Uji asumsi
klasik digunakan
untuk memenuhi asumsi formula atau
rumus regresi yang diturunkan dari
suatu
asumsi tertentu.
Regresi yang memenuhi asumsi- asumsi regresi
akan
bersifat BLUE yaitu singkatan dari
Blue, Linear, Unbiased,
dan Estimator. Untuk menghasilkan
hasil regresi yang BLUE (Best, Linear, Unbiased, Estimator) maka perlu
adanya pengujian yang diperlukan, yaitu dengan uji autokorelasi,
uji normalitas, uji heteroskedasitas dan
uji multikolinearitas.
2. a) Asumsi
klasik adalah suatu
syarat yang harus ada atau
dipenuhi dalam
regresi
linear
sederhana atau regresi linear berganda dengan menghasilkan
nilai
parameter yang memenuhi asumsi tidak
ada
autokorelasi, tidak ada multikolinearitas,
dan tidak ada heteroskedasitas sehingga menghasilkan hasil regresi yang BLUE (best, linear, unbiased, estimator).
b) Asumsi
1: Linear regression Model. Model regresi merupakan hubungan
linear
dalam parameter.
Asumsi 2: Nilai X adalah tetap dalam
sampling yang
diulang-ulang (X fixed
in repeated sampling). Tepatnya bahwa nilai
X adalah
nonstochastic(tidak random).
Asumsi 3: Variabel
pengganggu e memiliki rata-rata nol
(zero mean of disturbance).
Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa
saja terdapat error yang berada di atas garis regresi
atau di bawah garis
regresi, tetapi
setelah keduanya dirata-rata harus
bernilai nol.
Asumsi 4: Homoskedastisitas, atau
variabel pengganggu e memiliki variance yang
sama sepanjang observasi
dari berbagai nilai
X. Ini berarti
data Y pada setiap X memiliki rentangan yang sama.
Jika rentangannya tidak
sama, maka disebut heteroskedastisitas.
Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap
nilai
xi dan ji (No autocorrelation between the disturbance).
Asumsi 6: Variabel
X dan disturbance e
tidak berkorelasi.Ini
berarti
kita dapat memisahkan
pengaruh
X atas
Y dan
pengaruh e atas
Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang tindih
(sulit dipisahkan pengaruh masing-
masing atas Y). Asumsi
ini pasti terpenuhi
jika X adalah variabel
non random atau non stochastic.
Asumsi 7: Jumlah observasi atau
besar
sampel (n) harus lebih besar dari
jumlah parameter yang diestimasi.
Bahkan untuk memenuhi
asumsi yang lain,
sebaiknya jumlah
n harus cukup besar. Jika
jumlah
parameter sama atau bahkan lebih besar
dari jumlah observasi,
maka
persamaan regresi
tidak akan bisa diestimasi.
Asumsi 8: Variabel X harus
memiliki variabilitas. Jika nilai X selalu
sama sepanjang observasi
maka tidak
bisa dilakukan regresi.
Asumsi 9: Model
regresi secara benar telah
terspesifikasi. Artinya,
tidak ada
spesifikasi yang bias, karena
semuanya telah
terekomendasi
atau
sesuai dengan teori.
Asumsi 10. Tidak
ada multikolinearitas
antara variabel penjelas. Jelasnya kolinear antara variabel penjelas
tidak boleh sempurna atau tinggi.
c) Karena asumsi-asumsi
tersebut telah memenuhi asumsi regresi
dan nilai yang
diperoleh telah bersifat BLUE (Best, Linear, Unbiased,
Estimator).
d) Autokorelasi
adalah keadaan dimana variabel gangguan
pada periode tertentu
berkorelasi dengan
variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat
korelasi
antara data yang diteliti, baik
itu data jenis runtut waktu
(time series)
atau data
kerat silang (cross section). Masalah
autokorelasi lebih sering muncul pada
data time series, karena sifatnya lekat dengan kontinyuitas dan adanya sifat
ketergantungan antar data, sedangkan pada cross section
hal itu kecil kemungkinan
terjadi.
e)
1. Kesalahan
dalam
pembentukan model, artinya model yang digunakan untuk menganalisis regresi
tidak didukung oleh teori-teori yang relevan
dan mendukung.
2.Tidak memasukkan variabel yang penting. Variabel
penting yang dimaksud adalah variabel yang diperkirakan
signifikan mempengaruhi
variabel
Y.
3.Manipulasi data.
4. Menggunakan data yang tidak empiris.
f) Cara menguji autokorelasi yaitu
dengan cara :
1) Uji Durbin-Watson
(DW
Test). Dengan
langkah-langkahnya menentukan hipotesis.
Rumusan hipotesisnya (H0)
biasanya menyatakan
bahwa dua ujungnya
tidak
ada
serial autokorelasi baik positif maupun negatif.
2) Menggunakan metode LaGrange Multiplier
(LM). LM sendiri
merupakan teknik regresi yang memasukkan
variabel
lag,
sehingga terdapat variabel
tambahan yang dimasukkan dalam
model. Variabel tambahan tersebut adalah data
Lag dari variabel
dependen.
g)
Nilai
parameter estimator
(b1,
b2,.....¸bn)
model regresi tetap linear dan tidak bias dalam
memprediksi B (parameter
sebenarnya). Nilai
variance tidak minimum dan
standard error akan bias.
Akibatnya adalah nilai t hitung akan
menjadi
bias, karena nilai
t diperoleh dari hasil bagi Sb terhadap b (t = b/sb).
h) Heteroskedastisitas adalah residual yang harus homoskedastis,
artinya variance residual
harus memiliki variabel yang konstan
atau dengan kata
lain
rentangan e kurang lebih sama.
Karena jika variancenya tidak sama,
model akan menghadapi
masalah heteroskedastisitas.
i) Heteroskedastisitas muncul
apabila kesalahan atau
residual dari model yang
diamati tidak memiliki varians yang konstan
dari satu
observasi ke observasi lainnya (Kuncoro,
2001:112). Masalah heteroskedastisitas
lebih sering muncul dalam
data cross section dari pada data time series (Kuncoro,
2001:112; Setiaji,
2004:17 ).
j) Pengujian heteroskedastisitas
menggunakan
uji grafik,
dapat dilakukan dengan
membandingkan sebaran antara nilai
prediksi variabel
terikat dengan residualnya, yang output
pendeteksiannya akan
tertera berupa sebaran data pada scatter plot. Pengujian
heteroskedastisitas menggunakan uji Arch dilakukan
dengan cara
melakukan regresi atas residual,
dengan model yang dapat dituliskan e2 = a + bŶ2
+ u.
k) Munculnya masalah heteroskedastisitas yang mengakibatkan
nilai
Sb menjadi
bias, akan berdampak pada nilai
t dan
nilai
F yang
menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari
hasil bagi antara b
dengan Sb.
l) Multikolinieritas
adalah suatu keadaan
dimana terjadi
korelasi linear yang
“perfect”
atau eskak diantara variabel
penjelas yang
dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel
penjelas dapat ditrikotomikan
lemah, tidak berkolinear,
dan
sempurna.
m) Multikolinieritas
timbul
karena nilai koefisien
regresi (b)
masing-masing variabel
bebas
dan standar error nya (Sb)
cenderung bias dalam arti
tidak dapat ditentukan
kepastian
nilainya.
n) Cara mendeteksi ada tidaknya multikolinieritas
dengan menghitung nilai
korelasi antar variabel dengan
menggunakan Spearman’s Rho Correlation dapat dilakukan
apabila data
dengan skala ordinal
(Kuncoro, 2001: 114). Sementara untuk data interval
atau nominal dapat
dilakukan dengan Pearson Correlation.
o) Pengujian
multikolinearitas
merupakan tahapan penting yang harus
dilakukan dalam suatu penelitian,
karena apabila belum terbebas dari
masalah
multikolinearitas
akan
menyebabkan
nilai
koefisien regresi (b)
masing-masing
variabel bebas
dan nilai standar error-nya (Sb) cenderung bias, dalam arti
tidak dapat ditentukan kepastian
nilainya, sehingga akan berpengaruh pula
terhadap nilai t (Setiaji,
2004: 26).
p) Normalitas
adalah untuk menguji aspek variabel
pengganggu (e) memiliki
distribusi normal atau
tidak yang dapat
dilakukan sebelum atau
setelah tahapan
analisis regresi.
q) Normalitas
timbul karena mempunyai dua kemungkinan, yaitu apakah variabel pengganggu pada data berdistribusi normal atau tidak normal.
r) Beberapa cara dapat dilakukan untuk melakukan
uji normalitas antara lain
:
1. Menggunakan metode
numerik yang membandingkan nilai statistik, yaitu antara nilai
median
dengan
nilai
mean.
Data dikatakan normal jika perbandingan
anatara mean dan median menghasilkan
nilai yang
kurang lebih sama.
2.
Menggunakan
formula Jarque Bera (JB test) dengan rumus sebagai
berikut
: JB = n
[ 𝑆 2 + 𝐾 −3 2]
6 24
Dimana:
S = Skewness (kemencengan)
distribusi data
K = Kurtosis (keruncingan)
Skewness
dapat dicari dengan formula sebagai
berikut:
Kurtosis dapat dicari dengan formula sebagai berikut:
3. Mengamati sebaran data, dengan melakukan
hitungan-hitungan
berapa
prosentase data observasi dan berada di area mana. Untuk menentukan
posisi normal dari sebaran
data, langkah awal yag dilakukan adalah menghitung standar deviasi.
s) Konsekuensi normalitas
dalam model berdampak
pada nilai t dan F karena
pengujian
terhadap keduanya diturunkan
dari asumsi bahwa data
Y atau
e berdistribusi normal.
t) Apabila data tidak normal, maka diperlukan
upaya untuk
mengatasi seperti : memotong data yang out liers,
memperbesar
sampel, atau
melakukan transformasi
data.