EKONOMETRIKA BAB 4 DAN 5
BAB IV
REGRESI LINIER BERGANDA
1.Rangkuman
Regresi linier berganda yaitu variabel x berjumlah 2, 3 atau lebih. Jumlah X yang lebih dari satu tersebut terkenal dengan istilah Regresi Linier Berganda atau multiple linier regression. Bertambahnya jumlah variabel X hingga lebih dari satu sangat memungkinkan, karena dalam keilmuan sosial semua faktor-faktor atau variabel-variabel saling berkaitan satu dengan lainnya. Sangat mungkin dipengaruhi oleh faktor lain seperti perubahan nilai tukar (kurs), jumlah uang beredar, kelangkaan barang, dan lain-lain.
Perubahan model dari bentuk single ke bentuk multiple mengalami beberapa perubahan:
1) jumlah variabelnya bertambah sehingga spesifikasi model dan data terjadi perubahan.
2) rumus perhitungan nilai B mengalami perubahan.
3) Jumlah degree of freedom dalam menentukan t juga berubah.
Penulisan model regresi linier berganda merupakan pengembangan dari model regresi linier tunggal.
Populasi : 〖Y=A+B_1 X_1+B〗_2 X_2+B_3 X_(3 )+⋯+B_n X_n+e
Atau 〖Y=B_0+B_1 X_1+B〗_2 X_2+B_3 X_(3 )+⋯+B_n X_n+e
Sampel : 〖Y=a+b_1 X_1+b〗_2 X_2+b_3 X_(3 )+⋯+b_n X_n+e
Atau 〖Y=b_0+b_1 X_1+b〗_2 X_2+b_3 X_(3 )+⋯+b_n X_n+e
Perlu diingat bahwa penulisan model sangat beragam. Hal ini dapat dimengerti karena penulisan model sendiri hanya bertujuan sebagai teknik anotasi untuk memudahkan interpretasi. Penulisan cara di atas adalah bentuk model yang sering dijumpai dalam beberapa literatur. Notasi model seperti itu tentu berbeda dengan notasi model Yale.
maka notasi model menjadi seperti berikut:
Populasi: Y = B1.23+ B12.3X2i+B13.2 X3i + e
Sampel : Y = b1.23+ b12.3X2i+ b13.213.2X3i+ e
Perhitungan Nilai Parameter
Penghitungann nilai parameter menggunakan metode OLS dalam regresi linier berganda dimaksudkan untuk mendapatkan aturan dalam mengestimasi parameter yang tidak diketahui. Prinsip yang terkandung dalam OLS sendiri adalah untuk meminimalisasi perbedaan jumlah kuadrat kesalahan (sum of square) antara nilai observasi Y dengan Ŷ. Telah dikemukakan bahwa pencarian nilai b pada single linier berbeda dengan multiple linier. Perbedaan ini muncul karena jumlah variabel penjelasnya bertambah. Semakin banyak variabel X ini maka kemungkinan yang menjelaskan model juga mengalami perubahan. Dalam single linier kemunngkinan perubahan variabel lain tidak terjadi, tetapi dalam multiple linier hal itu terjadi.
Fungsi minimalisasi sum of square ditunjukkan dalam rumus :
∑e^(2 ) (b_0,b_1 b_2 )=∑_(n-1)^n(Y-Y ̂ )^2
=∑_(n-1)^n〖(Y-b_0 〖-b〗_1 X_1-b_2 X_2)〗^2
Nilai dari parameter b_1 dan b_2 merupakan nilai dari suatu sampel. Nilai b_1dan b_2 tergantung pada jumlah sampel yang ditarik. Penambahan atau pengurangan akan mengakibatkan perubahan rentangan nilai b. Perubahan rentang nilai b_1 dan b_2 diukur dengan standar error. Semakin besar standar error mencerminkan nilai b sebagai penduga populasi semakin kurang representatif. Sebaliknya perbandingan antara nilai b dan standar error ini memunculkan nilai t, yang dapat dirumuskan sebagai berikut:
t =b/S_b
Dimana :
b = nilai parameter
Sb = standar eror dari b. Jika b sama dengan 0 (b=0) atau Sb bernilai sangat besar, maka nilai t akan sama dengan atau mendekati 0(nol).
Besarnya a_1 pada tahap ketiga inilah yang merupakan nilai pasti atau net effect dari perubahan 1 unit X_1 terhadap Y, atau menunjukan kemiringan (slope) garis U atas terhadap variabel X_1. Logika dari teori tersebut yang mendasari rumus yang digunakan untuk menentukan koefisien regresi linier parsial (partial regression coefficient).
Nilai dari parameter b_1 dan b_2 merupakan nilai dari suatu sampel. Nilai b_1 dan b_2 bergantung pada jumlah sampel yang ditarik. Penambahan atau pengurangan akan mengakibatkan perubahan rentangan nilai b. Perubahan rentang nilai b_1 dan b_2 diukur dengan standart error. Semakin besar standart error mencerminkan nilai b sebagai penduga populasi semakin kurang representatif, sebaliknya jika standart error semakin kecil maka keakuratan daya penduga nilai b terhadap populasi semakin tinggi. Perbandingan antara nilai b dan standar error ini memunculkan nilai t.
Koefisien determinasi pada dasarnya digunakan untuk mengukur goodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau total variasi Y terhadap explained sum of square (ESS) atau variasi yang dijelaskan Y. Dengan demikian kita dapat mendefinisikan lagi R_2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y. Rumus tersebut adalah sebagai berikut:
Total variasi Y (TSS) dapat diukur menggunakan derajat deviasi dari masing-masing observasi nilai Y dari rata-ratanya.
Koefisien determinasi pada dasarnya digunakan untuk mengukur goodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y).
Nilai F
Karena uji F adalah membandingkan antara nilai F hitung dengan nilai f tabel, maka penting untuk mengetahui bagaimana nilai F hitung ataupun nilai F tabel.
2.Jawaban Pertanyaan
a).Regresi Linier Berganda adalah hubungan secara linier antar dua atau lebih variabel indipenden (X1 , X2 ,. . ., Xn) dengan variabel dependent (Y).
b)Model Regresi Linier Berganda
c).Y = A + B1 X1 + B2 X2 + . . . Bn Xnc
Arti notasi Model regresi
Y : Variable Dependen
X1 , X2 . . . Xn : Variable Independen
A : Konstanta
B : Koefisien Regresi
d).Konstanta adalah nilai Y apabila X1 , X2 . . . Xn = 0 e.
e).Koefisien regresi adalah suatu yang penting dalam Analisa Regresi. Nilai peningkatan atau penurunan.
f)Perbedaan antara regresi linier sederhana dan regresi linier berganda:
Regresi Linier sederhana : hanya melibatkan 2 variabel.
Regresi Linier berganda : melibatkan 2 atau lebih variabel.
g)Karena Jumlah variabel penjelasannya bertambah, semakin banyak variabel independent (X) maka kemungkinan – kemungkinan yang menjelaskan model juga mengalami pertambahan.
h)Rumusan nilai T mengalami perubahan karena nilai B1 dan B2 tergantung pada jumlah sampel yang ditarik.
i)Rumus T
j) Kegunaan nilai F : untuk melakukan pengujian signifikan semua variabel penjelasan secara serentak atau bersama-sama dengan menggunakan teknik ANOVA.
k)Berdasarkan nilai t hitung dan t tabel
- Jika nilai t hitung > t tabel maka variabel bebas (X) berpengaruh terhadap variabel terikat (Y).
- Jika nilai t hitung < t tabel maka variabel bebas (X) tidak berpengaruh terhadap variabel terikat (Y).
Berdasarkan nilai signifikansi hasil output SPSS
- Jika nilai Sig. < 0,05 maka variabel bebas (X) berpengaruh signifikan terhadap variabel terikat (Y).
- Jika nilai Sig. > 0,05 maka variabel bebas (X) tidak berpengaruh signifikan terhadap variabel terikat (Y).
l)Signifikan rumusan determinasi (R2) antara regresi linier berganda dan sederhana itu sama karena mengukur proporsi variabel dependent yang dijelaskan oleh variasi variabel independent.
m)Variabel penjelas dapat dianggap sebagai predictor terbaik dalam menjelaskan Y karena variabel penjelas mewakili / signifikan terhadap Y sehingga diperlukan adanya pengkajian terlebih dahulu sebelum penelitian.
BAB V
UJI ASUMSI KLASIK
1. Rangkuman
Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linier berganda yang berbasis Ordinary Least Square (OLS). Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsi- asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased, Estimator.
Best dimaksudkan sebagai yang terbaik dari analisis regresi linier digunakan untuk menggambarkan sebaran data dalam bentuk garis regresi, garis regresi merupakan cara memahami pola hubungan antara dua seri atau lebih. Hasil regresi dikatakan best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data menghasilkan error yang kecil.
Linear adalah model yang digunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variable penduganya hanya berpangkat satu. Unbiased atau tidak bias, dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai yang benar dari b, jika rata-rata b tidak sama dengan b maka selisihnya itu disebut biasnya. Estimator yang efisien dapat ditemukan apabila ketiga kondisi diatas telah tercapai karena sifat estimator yang efisien merupakan hasil konklusi dari ketiga hal sebelumnya. Secara teoritis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear,unbias, efficient of estimation (BLUE).
A. Uji Autokorelasi
Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section).
Faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi :
1. Kesalahan dalam pembentukan model
2. Tidak memasukkan variabel yang penting
3. Manipulasi data
4. Menggunakan data yang tidak empiris
Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
1. Uji Durbin-Watson (DW Test).
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin- Watson d statistic, Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
Terdapat intercept dalam model regresi.
Variabel penjelasnya tidak random(nonstochastics).
Tidak ada unsur lag dari variabel dependen di dalam model.
Tidak ada data yang hilang.
2. Menggunakan metode LaGrange Multiplier (LM).
LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen. Sebagai kunci untuk mengetahui pada lag berapa autokorelasi muncul, dapat dilihat dari signifikan tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t masing-masing variabel lag yang dibandingkan dengan t tabel, seperti yang telah dibahas pada uji t sebelumnya. Misalnya variabel Yt-1 mempunyai nilai t signifikan, berarti terdapat masalah autokorelasi atau pengaruh kesalahan pengganggu mulai satu periode sebelumnya. Jika ini terjadi, maka untuk perbaikan hasil regresi perlu dilakukan regresi ulang dengan merubah posisi data untuk disesuaikan dengan kurun waktu lag tersebut.
B. Uji Normalitas
Uji Normalitas adalah untuk menguji apakah variable pengganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Pengujian normalitas data ini berdampak pada nilai t dan f karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal. Dalam pengujian normalitas mempunyai dua kemungkinan yaitu data berdistribusi normal atau tidak normal. Apabila data normal maka tidak ada masalah karena uji t dan uji F dapat dilakukan , apabila data tidak normal maka diperlukan upaya mengatasi seperti memotong data yang out liers, memperbesar sampel atau melakukan transformasi data.
C.Uji Heteroskedastisitas
Uji heteroskedastisitas adaalah varaiansi residual harus memiliki variabel yang konstanta atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variansinya tidak sama, model akan menghadapi masalah heteroskedastisitas, masalah tersebut muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varias atau konstan dari satu observasi ke observasi lainnya. Masalah tersebut sering muncul dalam data cross section. Konsekuensi yang didapatkan apa bila masalah tersebut muncul akan mengakibatkan nilaiu Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan, Karen nilai t dihasilkan dari hasil bagi b dengan Sb. Untuk pendeteksian heteroskedastisitas dengan melakukan berbagai cara seperti uji grafik, uji park, uji gletser, uji spearman’s rank correlation dan uji whyte menggunakan lagrange multiplier.
D. Multikolinieritas
Multikolinieritas adalah suatu keadaan dimanaterjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan tidak linear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
2. Kesimpulan
Secara teoritis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear,unbias, efficient of estimation (BLUE).
3. Jawaban
a)Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linier berganda yang berbasis Ordinary Least Square (OLS).
b) Asumsi asumsi yang ditetapkan :
- linear regression model
- nilai X
- variabel pengganggu e memiliki rata-rata nilai 0 homoskedastisitas
- tidak ada otokorelasi antara variabel e pada setiap nilai x dan j
- variabel x dan disturbance e tidak berkorelas
- jumlah observasi / besar sampel (n_0) n0 harus lebih besar dari jumlah parameter yang diestimasi
- variabel x harus memiliki variabilitas
- model regresi secara benar telah terspesifiikasi
- tidak ada multikolinearitas antara variabel penjelas
d) Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section).
e) Autokoerlasi timbul karena terdapat gangguan autokorelasi pada model regresi yang diteliti baik itu data jenis waktu ataupun data karet silang.
f) Mendeteksi autokorelasi dengan adanya ketergantungan atau kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya.
g)Konsekuensi adanya masalah autokorelasi dalam model yaitu nilai t hitung akan menjadi bias karena nilai t diperoleh dari hasil bagi S_b terhadap b. Berhubung nilai S_b bias maka nilai t juga akan bias atau bersifat tidak pasti.
h) Heteroskedastisitas merupakan salah satu faktor yang menyebabkan model regresi linier sederhana tidak efisien dan akurat, juga mengakibatkan penggunaan metode kemungkinan maksimum dalam mengestimasi parameter (koefisien) regresi akan terganggu.
i) Heteroskedastistas muncul karena adanya kesalahan atau residual dari model yang diamati tidak memiliki varian yang konstan dari satu observasi ke observasi lain.
j)Mendeteksi masalah Heteroskedastistas dari data cross section karena masalah tersebut lebih sering muncul di cross section daripada time series.
k)Konsekuensi adanya masalah residual atau debiasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen.
l)Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model.
m)Mutikolinearitas timbul karena tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama
n)Mendeteksi masalah Mutikolinearitas dengan menganalisis matrik korelasi dengan pearson correlation atau dengan supermans tho correation, melakukan regresi partial dengan teknik auxiliary regression atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF).
Konsekuensi adanya masaalah Mutikolinearitas nilai koefisien regresi (b) masing – masing variabel bebas dan nilai standar errornya (s_b) cenderung bias, dalam arti tidak dapat ditentukan nilainya, sehingga akan berpengaruh pula terhadap nilai t.
o)Normalitas untuk melihat apakah nilai residual terdistribusi normal atau tidak model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal.
p)Normalitas timbul karena pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
q)Mendeteksi masalah normalitas dengan menggunakan metode numerik yang membandingkan nilai statistik yaitu antara nilai median dengan nilai mean, menggunakan formula jarque bera dan mengamati sebaran data.
r) Konsekuensi dari adanya masalah normalitas adalah pengujian normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
g)Cara menangani jika data tersebut ternyata tidak normal diperlukan upaya untuk mengatasi seperti memotong data out liers, memperbesar sampel atau melakukan transformasi data.
www.uniba.ac.id
Komentar
Posting Komentar